Partielle Differentialgleichungen 2 - am Institut für Mathematik der ...
Partielle Differentialgleichungen 2 - am Institut für Mathematik der ...
Partielle Differentialgleichungen 2 - am Institut für Mathematik der ...
Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.
YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.
<strong>Partielle</strong><br />
<strong>Differentialgleichungen</strong> 2<br />
Vorlesungsskript<br />
Sommersemester 2009<br />
Bernd Schmidt ∗<br />
Version vom 3. September 2009<br />
∗<br />
Zentrum <strong>Mathematik</strong>, Technische Universität München, Boltzmannstr. 3, 85747<br />
Garching, schmidt@ma.tum.de<br />
1
Inhaltsverzeichnis<br />
1 Einleitung 3<br />
2 Lineare Evolutionsgleichungen 5<br />
2.1 Analytische Vorbereitungen . . . . . . . . . . . . . . . . . . . . . 5<br />
2.1.1 Das Bochner-Integral . . . . . . . . . . . . . . . . . . . . . 5<br />
2.1.2 Zeitabhängige Sobolevräume . . . . . . . . . . . . . . . . . 11<br />
2.2 Lineare parabolische Gleichungen . . . . . . . . . . . . . . . . . . 16<br />
2.2.1 Die Konvektions-Diffusions-Gleichung . . . . . . . . . . . . 16<br />
2.2.2 Das abstrakte Evolutionsproblem . . . . . . . . . . . . . . 18<br />
2.2.3 Anwendung auf die Konvektions-Diffusions-Gleichung . . . 26<br />
2.3 Lineare hyperbolische Gleichungen . . . . . . . . . . . . . . . . . 28<br />
2.4 Lineare hyperbolische Systeme erster Ordnung . . . . . . . . . . . 36<br />
3 Die Navier-Stokes-Gleichungen 45<br />
4 Distributionen 46<br />
4.1 Definition und grundlegende Eigenschaften . . . . . . . . . . . . . 46<br />
4.2 Faltung und Fund<strong>am</strong>entallösungen . . . . . . . . . . . . . . . . . 52<br />
4.3 Temperierte Distributionen . . . . . . . . . . . . . . . . . . . . . . 61<br />
4.4 Der Satz von Malgrange-Ehrenpreis . . . . . . . . . . . . . . . . . 69<br />
4.5 Sobolevräume und Fouriertransformation . . . . . . . . . . . . . . 73<br />
4.6 Distributionen aus funktionalanalytischer Sicht . . . . . . . . . . . 77<br />
5 Variationsmethoden für vektorwertige Probleme 81<br />
5.1 Euler-Lagrange-Gleichung . . . . . . . . . . . . . . . . . . . . . . 81<br />
5.2 Die direkte Methode . . . . . . . . . . . . . . . . . . . . . . . . . 84<br />
5.3 Polykonvexität . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87<br />
5.4 Quasikonvexität . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94<br />
5.5 Relaxation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100<br />
5.6 Young-Maße . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106<br />
5.7 Mikrostrukturen und L<strong>am</strong>inate . . . . . . . . . . . . . . . . . . . 117<br />
2
Kapitel 1<br />
Einleitung<br />
Für eine allgemeine Einleitung in das Gebiet <strong>der</strong> partiellen <strong>Differentialgleichungen</strong><br />
verweise ich auf das Skript ‘<strong>Partielle</strong> <strong>Differentialgleichungen</strong>’ vom Wintersemester<br />
08/09 ([Sch 09], im Folgenden zitiert als ‘Skript PDG 1’). Obwohl als<br />
Folgeveranstaltung an die PDG 1 vom Wintersemester konzipiert, können Sie<br />
aber auch direkt in die Vorlesung PDG 2 einsteigen, wenn Sie etwas Vorwissen<br />
über Sobolev-Räume und elliptische Gleichungen besitzen. Die wesentlichen Voraussetzungen<br />
finden Sie etwa im Skript PDG 1, Kapitel 4.1, 4.3, 4.4, 5.1, 5.2,<br />
5.3.<br />
Überblick<br />
Im Kapitel 2 beschäftigen wir uns mit den linearen Evolutionsgleichungen, insbeson<strong>der</strong>e<br />
parabolischen und hyperbolischen Gleichungen zweiter Ordnung und<br />
hyperbolischen Systemen erster Ordnung. Ähnlich wie im Skript PDG 1, Kapitel 5<br />
formulieren wir diese Gleichungen zunächst in einem geeigneten schwachen Sinne.<br />
Als nächstes konstruieren wir approximative Lösungen, indem wir gewöhnliche<br />
<strong>Differentialgleichungen</strong> lösen (‘Galerkin-Verfahren’), und folgern daraus durch<br />
Kompaktheitsschlüsse die Existenz schwacher Lösungen. Dass diese Lösungen<br />
unter geeigneten Voraussetzungen wirklich klassische Lösungen sind, zeigt man<br />
schließlich durch Regularitätsresultate, die wir zumindest für die parabolischen<br />
Gleichungen ansprechen werden.<br />
Im folgenden Kapitel 3 untersuchen wir als berühmtes Beispiel einer nichtlinearen<br />
Evolutionsgleichung das System <strong>der</strong> Navier-Stokes-Gleichungen. Wie<strong>der</strong><br />
konstruieren wir schwache Lösungen indem wir zunächst approximative Lösungen<br />
finden und dann zum Limes übergehen. Hierbei zeigt sich, warum nicht-lineare<br />
Gleichungen oft so schwierig zu lösen sind: Approximationen in schwachen Topologien<br />
kommutieren i.A. nicht mit nicht-linearen Ausdrücken. Im Gegensatz zu<br />
Kapitel 2 diskretisieren wir hier auch die Zeit und erhalten die gesuchte Lösung<br />
schließlich im Limes infinitesimaler Zeitschritte.<br />
Distributionen, die man als ‘verallgemeinerte Funktionen’ interpretieren kann,<br />
3
sind ein unverzichtbares Hilfsmittel in <strong>der</strong> mo<strong>der</strong>nen Analysis. Ihre hervorstechendste<br />
Eigenschaft ist, dass man sie (als Distributionen) unendlich oft differenzieren<br />
kann – natürlich in einem geeignet schwachen Sinne. Jede L 1 loc -Funktion<br />
aber auch jedes Borelmaß ist ein Distribution und wir werden insbeson<strong>der</strong>e die<br />
Frage klären, was −∆Φ = δ für die Fund<strong>am</strong>entallösung des Laplace-Operators<br />
wirklich bedeutet. Im Wesentlichen geht es in diesem Kapitel darum, Operationen,<br />
die auf Funktionenräumen schon bekannt sind (schwache Ableitung, Faltung,<br />
Fouriertransformation, ...) konsistent auf die große Klasse <strong>der</strong> Distributionen zu<br />
erweitern. Als Anwendung untersuchen wir allgemeine lineare Differentialoperatoren<br />
mit konstanten Koeffizienten.<br />
Im letzten Kapitel 5 wenden wir uns wie gegen Ende im Skript PDG 1 variationellen<br />
Methoden zu. Im Unterschied zum letzten Semester beprechen wir<br />
hier jedoch vektorwertige Probleme, die z.B. in <strong>der</strong> mathematischen Elastizitätstheorie<br />
auftreten. Der vektorwertige Fall stellt sich nun als wesentlich schwieriger<br />
als <strong>der</strong> skalare Fall heraus; es treten völlig neue Phänomene auf wie etwa <strong>der</strong><br />
Begriff <strong>der</strong> Quasikonvexität. Wir entwickeln die Theorie bis zur Einführung von<br />
Young-Maßen und <strong>der</strong>en Zus<strong>am</strong>menhang zu Mikrostrukturen.<br />
Literatur: Die wesentlichen Quellen für Kapitel 2 sind das Vorlesungsskript von<br />
Brokate [Br 07b] sowie die PDG-Bücher von Wloka [Wl] und Evans [Ev]. Das<br />
Kapitel 3 besteht im Wesentlichen aus Kap. 3, §2 und §4 des Buches [Te] über<br />
die Navier-Stokes-Gleichungen. Das Kapitel 4 über Distributionen stützt sich auf<br />
das Buch von Folland [Fo], eine PDE-Vorlesung von D. Hoff sowie das Funktionalanalysisbuch<br />
von Werner [We]. Das letzte Kapitel 5 schließlich folgt in Teilen<br />
Evans [Ev] und dem Vorlesungsskript von Müller [Mü].<br />
Vielen Dank an alle, die mich auf Fehler in früheren Versionen dieses Skripts<br />
aufmerks<strong>am</strong> gemacht haben, insbeson<strong>der</strong>e an Herrn Stephan Bogendörfer und<br />
Herrn Thomas Roche.<br />
4
Kapitel 2<br />
Lineare Evolutionsgleichungen<br />
2.1 Analytische Vorbereitungen<br />
2.1.1 Das Bochner-Integral<br />
Unser erstes Ziel ist es, Banachraum-wertige Funktionen integrieren zu können.<br />
Im Folgenden sei [a, b] ein reelles Intervall (versehen mit dem Lebesgue-Maß) und<br />
X ein beliebiger Banachraum. 1<br />
Definition 2.1 (i) Eine Funktion f : [a, b] → X heißt einfach, wenn es eine<br />
Darstellung <strong>der</strong> Form<br />
n∑<br />
f(t) = χ Ai (t)x i ,<br />
i=1<br />
mit x i ∈ X, A i messbar, i = 1, . . .,n, gibt. Hier bezeichnet χ A die charakteristische<br />
Funktion einer Menge A.<br />
(ii) Das Bochner-Integral einer einfachen Funktion f(t) = ∑ n<br />
i=1 χ A i<br />
(t)x i ist<br />
definiert durch<br />
∫ b<br />
n∑<br />
f(t) dt := |A i |x i .<br />
a<br />
Bemerkung 2.2 (i) Es ist leicht zu sehen, dass diese Definition nicht von <strong>der</strong><br />
Wahl <strong>der</strong> A i abhängt; ∫ f dt ist also wohldefiniert.<br />
Ω<br />
(ii) Ebenfalls einfach einzusehen ist, dass f ↦→ ∫ b<br />
f(t) dt linear ist und es gilt<br />
a ∫ b<br />
∫ b<br />
∥ f(t) dt<br />
∥ ≤ ‖f(t)‖ dt<br />
a<br />
1 Es ist nicht schwer zu sehen, dass man im Folgenden statt Funktionen f : [a, b] → X<br />
allgemeiner Funktionen f : Ω → X, wobei (Ω, A, µ) ein vollständiger σ-endlicher Maßraum ist,<br />
zulassen könnte.<br />
5<br />
i=1<br />
a
für alle einfachen f.<br />
Die folgende Definition ist darauf zugeschnitten, den Integralbegriff auf allgemeine<br />
Funktionen zu übertragen:<br />
Definition 2.3 Eine Funktion heißt stark messbar 2 (auch Bochner-messbar), wenn<br />
es eine Folge (f n ) einfacher Funktionen gibt mit<br />
f n → f fast überall.<br />
Lemma 2.4 Es sei (f n ) eine Folge einfacher Funktionen f n → f fast überall.<br />
Dann ist t ↦→ ‖f n (t) − f(t)‖ eine messbare numerische Funktion.<br />
Beweis. Das folgt direkt aus<br />
‖f n (t) − f(t)‖ = lim<br />
m→∞ ‖f n(t) − f m (t)‖<br />
fast überall.<br />
□<br />
Definition 2.5 (Das Bochner Integral) Es sei f : [a, b] → X eine Funktion,<br />
so dass es eine Folge (f n ) einfacher Funktionen gebe mit<br />
f n → f fast überall und<br />
∫ b<br />
a<br />
‖f n − f‖ dt → 0.<br />
Dann heißt f Bochner-integrierbar und das Bochner-Integral von f ist definiert<br />
durch<br />
∫ b<br />
a<br />
f(t) dt := lim<br />
n→∞<br />
∫ b<br />
a<br />
f n (t) dt.<br />
Wir müssen überprüfen, dass ∫ b<br />
f dt wohldefiniert ist: Erstens konvergiert<br />
∫<br />
fn in <strong>der</strong> Tat, denn nach Bemerkung 2.2(ii) ist<br />
a<br />
∫<br />
∥<br />
∫<br />
f n −<br />
∥ ∫ ∥∥∥<br />
f m ≤<br />
∫<br />
‖f n − f m ‖ ≤<br />
∫<br />
‖f n − f‖ +<br />
‖f m − f‖ → 0<br />
mit m, n → ∞. Zweitens ist dieser Limes unabhängig von <strong>der</strong> approximierenden<br />
Folge (f n ). Ist nämlich (g n ) eine weitere Folge einfacher Funktionen mit g n → f<br />
fast überall und ∫ ‖g n − f‖ → 0, dann folgt<br />
∫ ∫ ∥ ∫ ∫ ∫<br />
∥∥∥ ∥ f n − g n ≤ ‖f n − g n ‖ ≤ ‖f n − f‖ + ‖g n − f‖ → 0.<br />
Schließlich zeigt die Wahl f n = f ∀ n, falls f einfach ist, dass unsere Definition<br />
mit <strong>der</strong> früheren Definition 2.1(ii) kompatibel ist.<br />
2 Betrachtet man allgemeinere Maßräume wie in <strong>der</strong> vorigen Fußnote beschrieben, so spricht<br />
man genauer von µ-stark messbaren Funktionen<br />
6
Satz 2.6 (Eigenschaften des Bochner-Integrals) (i) Die Abbildung f ↦→<br />
∫ b<br />
f dt ist linear auf dem Vektorraum <strong>der</strong> Bochner-integrierbaren Funktionen.<br />
a<br />
(ii) f : [a, b] → X ist Bochner-integrierbar genau dann, wenn f stark messbar<br />
und t ↦→ ‖f(t)‖ integrierbar ist.<br />
(iii) Ist f Bochner-integrierbar, so gilt<br />
∫ b<br />
∫ b<br />
∥ f(t) dt<br />
∥ ≤ ‖f(t)‖ dt.<br />
a<br />
(iv) Ist T : X → Y ein linearer beschränkter Operator zwischen den Banachräumen<br />
X und Y , f : [a, b] → X Bochner-integrierbar, so ist auch<br />
Tf : [a, b] → Y Bochner-integrierbar und es gilt<br />
∫ ∫<br />
Tf = T f.<br />
Beweis. (i) Klar.<br />
(ii) Teil 1: Ist (f n ) eine Folge einfacher Funktionen mit f n → f fast überall<br />
und ∫ ‖f n − f‖ → 0, dann ist insbeson<strong>der</strong>e f stark messbar und t ↦→ ‖f(t)‖ als<br />
fast überall punktweiser Limes von t ↦→ ‖f n ‖ messbar. Des Weiteren ist<br />
∫ ∫ ∫<br />
‖f‖ ≤ ‖f n − f‖ + ‖f n ‖ < ∞.<br />
(ii) Teil 2 & (iii): Sei (f n ) eine Folge einfacher Funktionen mit f n → f fast<br />
überall, ε > 0 beliebig. Setze<br />
{<br />
f n (t), falls ‖f n (t)‖ ≤ (1 + ε)‖f(t)‖,<br />
g n (t) :=<br />
0 sonst.<br />
Ist nun t ↦→ ‖f(t)‖ integrierbar, so ist insbeson<strong>der</strong>e {t : ‖f n (t)‖ ≤ (1 + ε)‖f(t)‖}<br />
messbar und daher g n = f n χ {‖fn(t)‖≤(1+ε)‖f(t)‖} einfach. Es gilt g n → f fast überall<br />
und<br />
‖g n − f‖ ≤ ‖g n ‖ + ‖f‖ ≤ (2 + ε)‖f‖.<br />
Der Satz von <strong>der</strong> majorisierten Konvergenz impliziert nun<br />
∫<br />
‖g n − f‖ → 0.<br />
Das aber zeigt, dass f Bochner-integrierbar ist, was den Beweis von (ii) vollendet.<br />
Aus ‖g n ‖ ≤ (1 + ε)‖f‖, ∫ g n → ∫ f und Bemerkung 2.2(ii) erhalten wir zudem<br />
∫<br />
∫ ∥ ∫<br />
∫<br />
∥ f<br />
∥ = lim ∥∥∥ n ∥ g n ≤ lim sup ‖g n ‖ ≤ (1 + ε) ‖f‖.<br />
n<br />
7<br />
a
∫<br />
Da ε > 0 beliebig war, folgt (iii).<br />
(iv) Sei (f n ) eine Folge einfacher Funktionen mit f n → f fast überall und<br />
∫<br />
‖fn − f‖ → 0. Es ist einfach zu sehen, dass<br />
∫<br />
Tf n = T<br />
f n<br />
∀ n ∈ N<br />
ist. Nun ist aber auch Tf n einfach und es gilt Tf n → Tf fast überall und ∫ ‖Tf n −<br />
Tf‖ ≤ ∫ ‖T ‖‖f n − f‖ → 0, weil T stetig ist. Es folgt<br />
∫ ∫ ∫ ∫ ∫<br />
Tf = lim Tf n = lim T f n = T lim f n = T f.<br />
□<br />
Die starke Messbarkeit einer Funktion ist oft nicht leicht direkt aus <strong>der</strong> Definition<br />
ersichtlich. Glücklicherweise gibt es ein starkes Kriterium.<br />
Definition 2.7 (i) Man sagt, eine Funktion f : [a, b] → X habe fast separables<br />
Bild, wenn es eine Nullmenge N ⊂ [a, b] gibt, so dass<br />
{f(t) : t ∈ [a, b] \ N}<br />
separabel ist (d.h. eine abzählbare dichte Teilmenge besitzt).<br />
(ii) Eine Funktion f : [a, b] → X heißt schwach messbar, wenn für jedes x ′ ∈ X ′<br />
(= Dualraum von X) die Abbildung<br />
t ↦→ x ′ (f(t))<br />
(als numerische Funktion auf [a, b]) messbar ist.<br />
Satz 2.8 (Satz von Pettis) Eine Funktion f : [a, b] → X ist genau dann stark<br />
messbar, wenn sie schwach messbar ist und fast separables Bild hat.<br />
Beweis. Übungsaufgabe. (Eine Anleitung finden Sie auf dem ersten Übungsblatt.)<br />
□<br />
Wir definieren nun die L p -Räume Banachraum-wertiger Funktionen.<br />
Definition 2.9 Setze<br />
{<br />
∫<br />
L p (a, b; X) = [f] : f : [a, b] → X ist Bochner-messbar und<br />
L ∞ (a, b; X) =<br />
für 1 ≤ p < ∞,<br />
{<br />
}<br />
‖f‖ p < ∞<br />
[f] : f : [a, b] → X ist Bochner-messbar und ess sup ‖f(t)‖ < ∞<br />
t∈[a,b]<br />
für p = ∞,<br />
wobei [f] die Äquivalenzklasse von f für die Äquivalenzrelation “Gleichheit fast<br />
überall” bezeichnet.<br />
8<br />
}
Wie auch für skalarwertige Funktionen üblich werden wir in Zukunft nicht<br />
zwischen f und [f] unterscheiden. Beachte, dass L 1 (a, b; X) gerade <strong>der</strong> Raum <strong>der</strong><br />
Bochner-integrierbaren Funktionen ist.<br />
Satz 2.10 L p (a, b; X) ist ein Banachraum bezüglich<br />
{ (∫<br />
‖f(t)‖<br />
‖f‖ L p (a,b;X) :=<br />
p dt ) 1 p<br />
, 1 ≤ p < ∞,<br />
ess sup t∈[a,b] ‖f(t)‖, p = ∞.<br />
Beweis. Es ist leicht zu sehen, dass L p (a, b; X) ein normierter Raum ist. Die<br />
Vollständigkeit folgt nun daraus, dass jede absolut konvergente Reihe konvergiert:<br />
Seien f 1 , f 2 , . . . ∈ L p ([a, b]; X) mit<br />
∑<br />
‖f i ‖ L p ([a,b];X) = ∑ ‖g i ‖ L p ([a,b]) < ∞, g i(t) := ‖f i (t)‖ X .<br />
i<br />
i<br />
Da L p ([a, b]) vollständig ist, gibt es eine Funktion g ∈ L p ([a, b]) mit<br />
g(t) = ∑ i<br />
g i (t) < ∞ ∀ t /∈ N 0 ,<br />
N 0 eine geeignete Nullmenge (Konvergenz in L p ([a, b]) und punktweise fast überall,<br />
da g i ≥ 0). Insbeson<strong>der</strong>e ist ∑ i ‖f i(t)‖ X < ∞ fast überall, so dass ein f(t)<br />
existiert mit ∑<br />
f i (t) = f(t) ∀ t /∈ N 0<br />
i<br />
(Konvergenz in X), denn auch X ist vollständig. f hat fast separables Bild, da<br />
{<br />
}<br />
∞⋃<br />
∞⋃<br />
f(t) : t ∈ [a, b] \ N j ⊂ span {f i (t) : t ∈ [a, b] \ N i }<br />
j=0<br />
gilt, und {f i (t) : t ∈ [a, b]\N i } separabel ist für eine geeignete Nullmenge N i . Des<br />
Weiteren ist f schwach messbar, weil für alle x ′ ∈ X ′ außerhalb einer Nullmenge<br />
x ′ (f(t)) = lim n x ′ ( ∑ n<br />
i=1 f i(t)) gilt. Nach dem Satz von Pettis ist also f in <strong>der</strong> Tat<br />
stark messbar.<br />
Es ergibt sich<br />
∥ n∑ ∥ ∥∥<br />
∞∑ ∥ ∥ ∥ ∞∑<br />
∥<br />
i=1<br />
f i − f∥<br />
∥<br />
L p (a,b;X)<br />
=<br />
∥∥<br />
i=n+1<br />
f i (·)<br />
∥<br />
X<br />
∥<br />
i=1<br />
∥<br />
L p (a,b)<br />
∥ ∥∥∥∥ ≤<br />
∥ i → 0<br />
i=n+1g<br />
L p (a,b)<br />
mit n → ∞.<br />
□<br />
Satz 2.11 Der Raum <strong>der</strong> stetigen Funktionen C([a, b]; X) liegt dicht in L p (a, b; X)<br />
für 1 ≤ p < ∞.<br />
9
Ein möglicher Beweis dieses Satzes benutzt den Satz von Lusin, <strong>der</strong> auch für<br />
Banachraum-wertige Funktionen mit fast separablem Bild gültig ist. Wir führen<br />
den Beweis, indem wir die aus <strong>der</strong> Maßtheorie bekannte Tatsache ausnutzen, dass<br />
C([a, b]) dicht liegt in L p (a, b).<br />
Beweis. Es ist leicht zu sehen, dass in <strong>der</strong> Tat C([a, b]; X) ⊂ L p (a, b; X) gilt, da<br />
stetige Funktionen auf dem kompakten Intervall [a, b] gleichmäßig stetig sind.<br />
Jede einfache Funktion ist durch stetige Funktionen approximierbar: Ist f =<br />
χ A x, wobei o.B.d.A. x ≠ 0 sei, und ε > 0, so wähle eine stetige Funktion f ε ′ :<br />
[a, b] → R mit ‖f ε ′ −χ A ‖ L p ([a,b]) ≤<br />
ε . Dann ist f ‖x‖ ε := f εx ′ ∈ C([a, b]; X) mit ‖f ε −<br />
χ A x‖ L p (a,b;X) ≤ ε. Ist nun allgemein f = ∑ n<br />
i=1 χ A i<br />
x i einfach und ε > 0, so wähle<br />
f ε,i ∈ C([a, b]; X) mit ‖f ε,i −χ Ai x i ‖ L p (a,b;X) ≤ ε wie gerade beschrieben. Dann ist<br />
n<br />
f ε := ∑ i f ε,i ∈ C([a, b]; X) mit ‖f ε − f‖ L p (a,b;X) ≤ ∑ i ‖f ε,i − χ Ai x i ‖ L p (a,b;X) ≤ ε.<br />
Es bleibt zu zeigen, dass die einfachen Funktionen dicht in L p (a, b; X) liegen.<br />
Sei also f ∈ L p (a, b; X). Wähle einfache Funktionen f n mit f n → f fast überall<br />
und ∫ ‖f n − f‖ → 0. Wie im Beweis von Satz 2.6 gezeigt, dürfen wir annehmen,<br />
dass ‖f n ‖ ≤ 2‖f‖ fast überall gilt. Dann aber gilt ‖f n − f‖ p ≤ 3 p ‖f‖ p und<br />
‖f<br />
∫ n −f‖ p → 0 fast überall, nach dem Satz von <strong>der</strong> majorisierten Konvergenz also<br />
‖fn − f‖ p → 0.<br />
□<br />
Zum Schluss dieses Abschnitts stellen wir noch einige nützliche Eigenschaften<br />
des Bochner-Integrals zus<strong>am</strong>men, <strong>der</strong>en Beweise Übungsaufgaben sind.<br />
Bemerkung 2.12 1. Konvergiert f n gegen f in L p (a, b; X), so gibt es eine<br />
punktweise fast überall gegen f konvergente Teilfolge.<br />
2. Hauptsatz <strong>der</strong> Differential- und Integralrechnung: Ist f ∈ C 1 ([a, b], X), a ≤<br />
s ≤ t ≤ b, so gilt<br />
f(t) = f(s) +<br />
∫ t<br />
s<br />
f ′ (τ) dτ.<br />
3. Satz von <strong>der</strong> majorisierten Konvergenz: Gilt f n → f punktweise fast überall<br />
für Bochner-integrierbare f n und gibt es eine integrierbare numerische<br />
Funktion g : [a, b] → R mit<br />
‖f n (t)‖ ≤ g(t) fast überall für alle n ∈ N,<br />
so ist auch f Bochner-integrierbar mit<br />
∫ ∫<br />
f n →<br />
f.<br />
4. Ist ζ ∈ Cc ∞(−ε, ε), u ∈ L1 (a, b; X), so ist ζ ∗ u ∈ C ∞ (a + ε, b − ε; X) mit<br />
d n<br />
(ζ ∗ u) = ( dn ζ) ∗ u, n ∈ N.<br />
dt n dt n<br />
5. Ist X separabel, 1 ≤ p < ∞, so ist auch L p (a, b; X) separabel.<br />
10
2.1.2 Zeitabhängige Sobolevräume<br />
Definition 2.13 (i) Es sei X ֒→ Y , u ∈ L 1 (0, T; X). v ∈ L 1 (0, T; Y ) heißt<br />
schwache Ableitung von u, wenn<br />
∫ T<br />
0<br />
∫ T<br />
ϕ ′ (t) u(t) dt = − ϕ(t) v(t) dt<br />
0<br />
für alle Testfunktionen ϕ ∈ Cc ∞ (0, T) erfüllt ist. (Beachte: Dies ist als Gleichung<br />
in Y zu interpretieren, wobei die rechte Seite gemäß <strong>der</strong> Einbettung<br />
X ֒→ Y als Element von Y aufgefasst wird. Ist X = Y , so ist immer die<br />
identische Einbettung gemeint.)<br />
(ii) W 1,p (0, T; X) ist <strong>der</strong> Raum<br />
W 1,p (0, T; X) := {u ∈ L p (0, T; X) : u ′ existiert und liegt in L p (0, T; X)}<br />
versehen mit <strong>der</strong> Norm<br />
⎧( ⎨ ∫ ) 1<br />
T<br />
‖u‖ W 1,p (0,T;X) = 0 ‖u‖p + ‖u ′ ‖ p p<br />
, 1 ≤ p < ∞,<br />
⎩<br />
ess sup t∈[0,T] (‖u(t)‖ + ‖u ′ (t)‖), p = ∞.<br />
Es ist nicht schwer zu sehen, dass die schwache Ableitung – wenn sie existiert<br />
– eindeutig definiert ist und dass W 1,p (0, T; X) ein Banachraum ist.<br />
Satz 2.14 Sei u ∈ W 1,p (0, T; X), 1 ≤ p ≤ ∞. Dann gelten:<br />
(i) u ∈ C([0, T]; X) (Genauer: Es gibt einen stetigen Repräsentanten.)<br />
(ii) Für 0 ≤ s ≤ t ≤ T ist<br />
u(t) = u(s) +<br />
∫ t<br />
s<br />
u ′ (τ) dτ.<br />
(iii) Es gibt eine von u unabhängige Konstante C, so dass<br />
max<br />
t∈[0,T] ‖u(t)‖ ≤ C‖u‖ W 1,p (0,T;X).<br />
Beweis. Setze u durch 0 auf (−∞, 0) ∪ (T, ∞) fort. Bezeichnet η ε den skalierten<br />
Standard-Glättungskern auf R, so sei<br />
u ε := η ε ∗ u.<br />
11
Nach Bemerkung 2.12,4 ist u ε C ∞ -glatt. Wie im skalaren Fall (vgl. Skript PDG<br />
1) sieht man, dass u ′ ε = η ε ∗ u ′ auf (ε, T − ε) gilt:<br />
u ′ ε(t) =<br />
∫ T<br />
= −<br />
=<br />
0<br />
∫ T<br />
0<br />
∫ T<br />
0<br />
dη ε<br />
(t − s)u(s) ds<br />
dt<br />
dη ε<br />
(t − s)u(s) ds<br />
ds<br />
η ε (t − s)u ′ (s) ds<br />
= (η ε ∗ u ′ )(t),<br />
wobei wir im ersten Schritt Bemerkung 2.12,4 benutzt haben. Mit Hilfe von Satz<br />
2.11 ergibt sich außerdem 3 – genau wie im skalaren Fall –<br />
u ε → u in L p (0, T; X), u ′ ε → u ′ in L p loc<br />
(0, T; X). (2.1)<br />
Da u ε glatt ist, können wir nach Bemerkung 2.12,2 schreiben<br />
u ε (t) = u ε (s) +<br />
∫ t<br />
s<br />
u ′ ε (τ) dτ.<br />
Durch Übergang zu einer Teilfolge (wie<strong>der</strong> mit u ε bezeichnet) erhalten wir u ε → u<br />
fast überall und d<strong>am</strong>it<br />
u(t) = u(s) +<br />
∫ t<br />
s<br />
u ′ (τ) dτ<br />
für fast alle 0 < s ≤ t < T. Da die Abbildung (s, t) ↦→ ∫ t<br />
s u′ ε (τ) dτ stetig ist,<br />
folgen daraus (i) und (ii).<br />
Aus (ii) folgt nun ‖u(t)‖ ≤ ‖u(s)‖+ ∫ t<br />
s ‖u′ (τ)‖ dτ und daraus durch Integration<br />
über s:<br />
T ‖u(t)‖ ≤ ‖u‖ L 1 (0,T,X) + T ‖u ′ ‖ L 1 (0,T,X).<br />
(iii) folgt nun aus <strong>der</strong> Höl<strong>der</strong>schen Ungleichung.<br />
□<br />
In den Anwendungen ist beson<strong>der</strong>s <strong>der</strong> Fall Y = X ′ von Bedeutung. Genauer:<br />
Satz 2.15 Es seien V ein reflexiver Banachraum und H ein Hilbertraum über<br />
R. j : V ֒→ H sei eine dichte Einbettung von V in H (d.h. j : V → H ist linear,<br />
stetig und injektiv mit j(V ) dicht in H). Dann definiert<br />
〈j ∗ h, v〉 V = (h, jv) H ∀ v ∈ V (2.2)<br />
eine dichte Einbettung j ∗ : H ֒→ V ′ mit ‖j ∗ ‖ L(H,V ′ ) ≤ ‖j‖ L(V,H) .<br />
3 Natürlich ist in Analogie zum skalaren Fall f ∈ L p loc<br />
(0, T; X) genau dann, wenn f ∈<br />
L p (t 1 , t 2 ; X) für alle 0 < t 1 < t 2 < T, und eine Folge (f k ) konvergiert in L p loc<br />
(0, T; X) gegen f,<br />
wenn alle Einschränkungen f k | [t1,t 2] auf kompakte Teilintervalle [t 1 , t 2 ] ⊂ (0, T) in L p (t 1 , t 2 ; X)<br />
gegen f| [t1,t 2]konvergieren.<br />
12
Hier und in Zukunft schreiben wir die Wirkung v ′ (v) eines linearen Funktionals<br />
v ′ ∈ V ′ auf einen Vektor v ∈ V meist als 〈v ′ , v〉 V , was den bilinearen Charakter<br />
dieses Ausdrucks betont.<br />
Bemerkung 2.16 j ∗ ist die adjungierte Abbildung von j : V → H, wenn man<br />
H mit H ′ gemäß dem Rieszschen Darstellungssatz identifiziert.<br />
Beweis. Die rechte Seite von (2.2) ist linear in v mit<br />
|(h, jv) H | ≤ ‖h‖ H ‖jv‖ H ≤ ‖h‖ H ‖j‖ L(V,H) ‖v‖ V ,<br />
so dass j ∗ h in V ′ liegt mit ‖j ∗ h‖ V ′ ≤ ‖j‖ L(V,H) ‖h‖ H . Da die rechte Seite von (2.2)<br />
auch linear in h ist, zeigt dies j ∗ ∈ L(H, V ′ ) mit ‖j ∗ ‖ L(H,V ′ ) ≤ ‖j‖ L(V,H) .<br />
Ist j ∗ h = 0, so gilt (h, jv) H = 0 für alle v ∈ V und d<strong>am</strong>it h = 0, da j(V )<br />
dicht liegt in H. Dies zeigt, dass j ∗ injektiv ist.<br />
Es bleibt zu zeigen, dass j ∗ (H) dicht liegt in V ′ . Nach dem Satz von Hahn-<br />
Banach genügt es dazu nachzuweisen, dass v ′′ (j ∗ h) = 0 ∀ h ∈ H für v ′′ ∈ V ′′ nur<br />
für v ′′ = 0 gelten kann. (Wäre j ∗ (H) nicht dicht in V ′ , so gäbe es ein v ′′ ∈ V ′′ \{0},<br />
welches auf j ∗ (H) verschwindet.) Sei also v ′′ ∈ V ′′ mit v ′′ (j ∗ h) = 0 ∀ h ∈ H. Da<br />
V reflexiv ist, gibt es ein v ∈ V mit v ′′ (v ′ ) = 〈v ′ , v〉 V für alle v ′ ∈ V ′ . Es folgt<br />
0 = v ′′ (j ∗ h) = 〈j ∗ h, v〉 V = (h, jv) H ∀ h ∈ H.<br />
Also ist jv = 0 und d<strong>am</strong>it auch v = 0, da j injektiv ist. Dann aber ist auch<br />
v ′′ = 0.<br />
□<br />
Korollar 2.17 Unter den Voraussetzungen von Satz 2.15 gilt:<br />
J := j ∗ ◦ j : V ֒→ V ′<br />
ist eine dichte Einbettung von V in V ′ mit<br />
〈Jv, w〉 V = 〈Jw, v〉 V ∀ v, w ∈ V.<br />
Beweis. Dass J : V ֒→ V ′ eine dichte Einbettung ist, folgt direkt aus Satz 2.15.<br />
Die Behauptung ergibt sich daher aus<br />
〈Jv, w〉 V = 〈j ∗ j v, w〉 V = (jv, jw) H = (jw, jv) H = 〈j ∗ j w, v〉 V = 〈Jw, v〉 V .<br />
Definition 2.18 Unter den Voraussetzungen von Satz 2.15 nennt man V<br />
H j∗<br />
֒→ V ′ (o<strong>der</strong> einfach (V, H, V ′ )) einen Gelfandschen Dreier o<strong>der</strong> auch ein<br />
Evolutionstripel.<br />
□<br />
j<br />
֒→<br />
13
Ein Gelfandscher Dreier induziert die dichten Einbettungen<br />
(Übungsaufgabe).<br />
L p (0, T; V ) ֒→ L p (0, T; H) ֒→ L p (0, T; V ′ )<br />
Beispiel: Sei U ⊂ R n offen und beschränkt, V = H0 1(U), H = L2 (U). (Nach einer<br />
Übung in PDG 1 ist V ′ = (H0 1(U))′ = H −1 (U).) Sei j die kanonische Einbettung<br />
H0(U) 1 ֒→ L 2 (U). Es gilt<br />
∫<br />
〈j ∗ h, v〉 H 1<br />
0 (U) = (h, jv) L 2 (U) = h v ∀v ∈ H0 1 (U).<br />
Der Rieszsche Darstellungssatz für H0 1 liefert ein w ∈ H0, 1 so dass<br />
∫<br />
〈j ∗ h, v〉 H 1<br />
0 (U) = ∇w · ∇v ∀v ∈ H0 1 (U).<br />
U<br />
Diese beiden Gleichungen zeigen nun, dass w gerade die schwache Lösung des<br />
elliptischen Problems<br />
U<br />
−∆w = h in U,<br />
w = 0 auf ∂U<br />
ist.<br />
Lemma 2.19 Es sei V ֒→ j<br />
H ֒→ j∗<br />
V ′ ein Gelfandscher Dreier, u ∈ L 2 (0, T; V ),<br />
w ∈ L 2 (0, T, V ′ ). Dann ist w die schwache Ableitung von u genau dann, wenn<br />
gilt.<br />
∫ T<br />
(ju(t), jv(t)) H ϕ ′ (t) dt = −<br />
∫ T<br />
0<br />
0<br />
〈w(t), v〉 V ϕ(t) ∀ v ∈ V, ϕ ∈ C ∞ c<br />
(0, T)<br />
Beweis. Es ist u ′ = w genau dann, wenn<br />
〈 ∫ T<br />
〉 〈∫ T<br />
〉<br />
J u(t)ϕ ′ (t) dt, v = − w(t)ϕ(t) dt, v<br />
0<br />
nach Satz 2.6(iv) also genau dann, wenn<br />
V<br />
0<br />
V<br />
∀ v ∈ V, ϕ ∈ C ∞ c (0, T),<br />
∫ T<br />
0<br />
∫ T<br />
〈Ju(t)ϕ ′ (t), v〉 V<br />
dt = −<br />
0<br />
〈w(t)ϕ(t), v〉 V<br />
dt ∀ v ∈ V, ϕ ∈ Cc ∞ (0, T). □<br />
Satz 2.20 Sei V ֒→ j<br />
H ֒→ j∗<br />
V ′ ein Gelfandscher Dreier, W := {u ∈ L 2 (0, T; V ) :<br />
u ′ ∈ L 2 (0, T; V ′ )}. Dann gilt:<br />
14
(i) W ⊂ C([0, T]; H). D.h. ist u ∈ W, so ist ju : [0, T] → H eine stetige<br />
Funktion (nach Abän<strong>der</strong>ung auf einer Nullmenge).<br />
(ii) Für alle u, v ∈ W ist die Abbildung t ↦→ (ju(t), jv(t)) H absolut stetig mit<br />
Ableitung<br />
d<br />
dt (ju(t), jv(t)) H = 〈u ′ (t), v(t)〉 V + 〈v ′ (t), u(t)〉 V<br />
für fast alle t. Insbeson<strong>der</strong>e ist also<br />
(ju(t), jv(t)) H = (ju(s), jv(s)) H +<br />
für alle 0 ≤ s ≤ t ≤ T.<br />
(iii) Es gibt eine nur von T abhängige Konstante C, so dass<br />
∫ t<br />
s<br />
〈u ′ (τ), v(τ)〉 V + 〈v ′ (τ), u(τ)〉 V dτ<br />
max ‖ju‖ H ≤ C ( ‖u‖ L 2 (0,T;V ) + ‖u ′ ‖ L 2 (0,T;V )) ′ .<br />
t∈[0,T]<br />
Beweis. Setze u durch 0 auf (−∞, 0) ∪ (T, ∞) fort und definiere<br />
⎧<br />
⎪⎨ (η ε ∗ u)(ε), falls t ∈ [0, ε),<br />
u ε (t) := (η ε ∗ u)(t), falls t ∈ [ε, T − ε],<br />
⎪⎩<br />
(η ε ∗ u)(T − ε), falls t ∈ (T − ε, T],<br />
ähnlich wie im Beweis von Satz 2.14.<br />
(i) Da die u ε stetig und stückweise glatt sind mit<br />
gilt<br />
d<br />
dt ‖ju ε(t) − ju δ (t)‖ 2 H = 2(ju ′ ε(t) − ju ′ δ(t), ju ε (t) − ju δ (t)) H ,<br />
∫ t<br />
‖ju ε (t)−ju δ (t)‖ 2 H = ‖ju ε(s)−ju δ (s)‖ 2 H +2 〈Ju ′ ε (τ)−Ju′ δ (τ), u ε(τ)−u δ (τ)〉 V dτ<br />
für ε, δ > 0, s, t ∈ [0, T]. Entlang einer geeigneten Teilfolge ε k konvergiert u εk<br />
fast überall gegen u. Durch geeignete Wahl von s ∈ (0, T) erhalten wir also<br />
u εk (s) → u(s) in V und d<strong>am</strong>it<br />
lim sup ‖ju εk (t) − ju εm (t)‖ 2 H<br />
k,m→∞<br />
≤ 2 lim sup<br />
k,m→∞<br />
∫ t<br />
s<br />
s<br />
‖Ju ′ ε k<br />
(τ) − Ju ′ ε m<br />
(τ)‖ V ′‖u εk (τ) − u εm (τ)‖ V dτ.<br />
15
Wie im Beweis von Satz 2.14 ergibt sich Ju ′ ε = η ε ∗ u ′ auf (ε, T − ε) (und<br />
Ju ′ ε = 0 auf [0, ε) ∪ (T − ε, T]). Es folgt Ju′ ε → u′ in L 2 (0, T; V ′ ). Zus<strong>am</strong>men mit<br />
u ε → u in L 2 (0, T; V ) folgt schließlich<br />
lim sup<br />
k,m→∞<br />
max ‖ju ε k<br />
(t) − ju εm (t)‖ 2 H = 0.<br />
t∈[0,T]<br />
(ju εk ) ist also eine Cauchy-Folge im Banachraum C([0, T]; H). Wegen u εk → u<br />
fast überall ist daher in <strong>der</strong> Tat u fast überall gleich einer stetigen Funktion.<br />
(ii) Ähnlich wie in (i) ist<br />
(ju ε (t), jv ε (t)) H = (ju ε (s), jv ε (s)) H +<br />
∫ t<br />
Mit ε k → 0 folgt für fast alle 0 < s < t < T<br />
(ju(t), jv(t)) H = (ju(s), jv(s)) H +<br />
s<br />
∫ t<br />
s<br />
〈Ju ′ ε (τ), v ε(τ)〉 V + 〈Jv ′ ε (τ), u ε(τ)〉 V dτ.<br />
〈u ′ (τ), v(τ)〉 V + 〈v ′ (τ), u(τ)〉 V dτ,<br />
wobei t ↦→ 〈u ′ (t), v(t)〉 V +〈v ′ (t), u(t)〉 V in L 1 (0, T) liegt. Da nach (i) ju und jv als<br />
stetig angenommen werden dürfen und das Integral auf <strong>der</strong> rechten Seite stetig<br />
von (s, t) anhängt, gilt diese Gleichung für alle 0 ≤ s ≤ t ≤ T. Dies zeigt (ii).<br />
(iii) Nach (ii) ist insbeson<strong>der</strong>e<br />
∫ t<br />
‖ju(t)‖ 2 H = ‖ju(s)‖2 H + 2 〈u ′ (τ), u(τ)〉 V dτ<br />
s<br />
(<br />
)<br />
≤ C‖u(s)‖ 2 V + C ‖u ′ ‖ 2 L 2 (0,T,V ′ ) + ‖u‖2 L 2 (0,T,V ) .<br />
Integration über s liefert die Behauptung.<br />
□<br />
2.2 Lineare parabolische Gleichungen<br />
2.2.1 Die Konvektions-Diffusions-Gleichung<br />
Es sei U ⊂ R n ein beschränktes Gebiet. Wir untersuchen die allgemeine Konvektions-<br />
Diffusions-Gleichung<br />
⎧<br />
⎪⎨ ∂ t u + Lu = f in U T = U × (0, T],<br />
u = 0 auf ∂U × (0, T],<br />
(2.3)<br />
⎪⎩<br />
u = u 0 auf U × {0},<br />
wobei L in Divergenzform gegeben sei durch<br />
Lu = − ∑ i,j<br />
∂ j (a ij ∂ i u) + ∑ i<br />
b i ∂ i u + c u.<br />
16
Beachte, dass ∂ i , ∂ j für die räumlichen Ableitungen ∂ xi , ∂ xj steht.<br />
Die Koeffizienten a ij , b i und c sind hier Funktionen von x und t. Fixiert man<br />
t und betrachtet L als Operator auf Funktionen in x, so nennt man – wie im<br />
Skript PDG 1 definiert – L gleichmäßig elliptisch, wenn ein von x unabhängiges<br />
θ > 0 existiert, so dass ∑ i,j a ijξ i ξ j ≥ θ|ξ| 2 ∀ ξ ∈ R n \ {0}.<br />
Definition 2.21 Gibt es ein von (x, t) unabhängiges θ > 0, so dass<br />
∑<br />
a ij ξ i ξ j ≥ θ|ξ| 2 ∀ ξ ∈ R n \ {0},<br />
so nennt man ∂ t + L gleichmäßig parabolisch.<br />
i,j<br />
Physikalische Motivation Physikalisch beschreibt diese Gleichung z.B. die<br />
Konzentration eines chemischen Stoffes in in einem fließenden Trägermedium (etwa<br />
Tinte in Wasser). Es gibt natürlich auch an<strong>der</strong>e – nicht nur physikalische –<br />
Interpretationen. Dabei besagt die Gleichung, dass die zeitliche Än<strong>der</strong>ung von<br />
u gleich −Lu + f ist. Am einfachsten erkennt man, welche Effekte beschrieben<br />
werden, wenn man die Terme in −Lu + f extra betrachtet.<br />
Diffusion: Der Term ∑ i,j ∂ j(a ij ∂ i u) = div(A T ∇u) ergibt sich daraus, dass<br />
das System versucht, Konzentrationsunterschiede auszugleichen. Betrachtet man<br />
wie in den physikalischen Motivationen zur Laplace-Gleichung und zur Wärmeleitungsgleichung<br />
im Skript PDG 1 ein kleines Testvolumen und untersucht, wie sich<br />
die Konzentration des betrachteten Stoffes pro Zeiteinheit än<strong>der</strong>t, so liefert die<br />
Annahme, dass dies proportional zu ∇u geschieht einen Oberflächenterm A∇u.<br />
Ist <strong>der</strong> Raum homogen, so ist einfach A = Id und wir erhalten div ∇u = ∆u. Im<br />
Allgemeinen ist das zu Grunde liegende Medium jedoch inhomogen.<br />
Beachte, dass wir o.B.d.A. A als symmetrisch voraussetzen dürfen. Da wir<br />
allerdings immer voraussetzen wollen, dass sich Konzentrationsunterschiede ausgleichen<br />
und sich nicht etwa verstärken, nehmen wir zudem an, dass A positiv<br />
definit ist.<br />
Transport: Der Term ∑ i b i∂ i u beschreibt den Transport eines Stoffes durch<br />
ein Medium, welches sich mit <strong>der</strong> Geschwindigkeit b bewegt, s. Skript PDG 1.<br />
Man nennt diesen Anteil <strong>der</strong> Bewegung auch Konvektion.<br />
Quellen und Senken: Die Terme cu und f schließlich beschreiben Quellen<br />
und Senken des betrachteten Stoffes, d.h. die Rate, mit <strong>der</strong> die Konzentration<br />
ab- o<strong>der</strong> zunimmt. Auch dies ist im Skript PDG 1 erläutert. Im Unterschied zu<br />
f = f(x, t) hängt <strong>der</strong> Term cu = c(x, t)u(x, t) auch von <strong>der</strong> Lösung u selbst<br />
ab. Wir betrachten hier <strong>der</strong> Einfachheit halber nur lineare Abhängigkeiten von<br />
u. Die Erzeugungs- bzw. Vernichtungsrate ist also proportional zur momentanen<br />
Konzentration. Das ist z.B. – unter geeigneten Voraussetzungen – sicher eine<br />
vernünftige Annahme an biologische Populationsmodelle. In <strong>der</strong> Theorie <strong>der</strong> sogenannten<br />
Reaktions-Diffusions-Gleichungen betrachtet man auch allgemeinere<br />
Rückkopplungen f(x, t, u) auf die zeitliche Än<strong>der</strong>ung des Systems.<br />
17
Wie für elliptische Probleme (vgl. Skript PDG 1) versuchen wir, eine schwache<br />
Formulierung des Problems zu finden, die wir mit funktionalanalytischen Mitteln<br />
lösen können. Die Idee ist dabei, t zunächst festzuhalten und in Analogie zur<br />
elliptischen Theorie Lu und f als Funktionale auf V := H0 1 (U) aufzufassen. Das<br />
legt dann nahe, Funktionen u mit ∂ t u ∈ (H0 1(U))′ zu suchen. Wir testen also (2.3)<br />
mit (zunächst Cc ∞ -glatten) Funktionen v und integrieren partiell nach x, um<br />
〈∂ t u, v〉 V + B(u, v, t) = 〈f, v〉 V (2.4)<br />
zu erhalten. Hier ist B(·, ·, t) die Bilinearform<br />
∫<br />
∑<br />
B(u, v, t) = a ij ∂ i u ∂ j v + ∑<br />
U i,j<br />
i<br />
b i ∂ i u v + c u v dx. (2.5)<br />
(vgl. Kap. 5 im Skript PDG 1).<br />
Indem wir H = L 2 (U) setzen und for<strong>der</strong>n, dass (2.4) für alle v ∈ V = H 1 0 gilt,<br />
gelangen wir zu dem folgenden abstrakten Evolutionsproblem: Gesucht ist<br />
u ∈ W := {w ∈ L 2 (0, T; V ) : w ′ ∈ L 2 (0, T; V ′ )}<br />
mit<br />
{<br />
〈u ′ (t), v〉 V + B(u(t), v, t) = 〈f(t), v〉 V ∀v ∈ V f.f.a. t,<br />
u(0) = u 0 ∈ H.<br />
(2.6)<br />
Beachte: Die Bedingung u(0) = u 0 ist sinnvoll nach Satz 2.20(i).<br />
Definition 2.22 Man nennt (2.6) die zu (2.3) gehörige Variationsgleichung. Eine<br />
Lösung von (2.6) heißt schwache Lösung von (2.3).<br />
2.2.2 Das abstrakte Evolutionsproblem<br />
Das grundlegende abstrakte Resultat ist wie folgt.<br />
Satz 2.23 Sei V ֒→ j<br />
H ֒→ j∗<br />
V ′ ein Evolutionstripel, V ein separabler ∞-dimensionaler<br />
Banachraum. Des Weiteren sei B : V × V × (0, T] → R eine Abbildung,<br />
so dass B(·, ·, t) bilinear ist für jedes t, t ↦→ B(v, w, t) messbar für alle v, w ∈ V<br />
und so dass Konstanten c V , c H , C V > 0 existieren mit<br />
(Stetigkeit) und<br />
|B(v, w, t)| ≤ C V ‖v‖ V ‖w‖ V ∀ v, w ∈ V, t ∈ (0, T]<br />
|B(v, v, t)| ≥ c V ‖v‖ 2 V − c H‖jv‖ 2 H<br />
∀ v ∈ V, t ∈ (0, T]<br />
18
(“schwache Form <strong>der</strong> Koerzivität”). Sei schließlich u 0 ∈ H, f ∈ L 2 (0, T; V ′ ).<br />
Dann gibt es genau eine Lösung u ∈ W <strong>der</strong> Variationsgleichung<br />
{<br />
〈u ′ (t), v〉 V + B(u(t), v, t) = 〈f(t), v〉 V ∀v ∈ V f.f.a. t,<br />
(2.7)<br />
ju(0) = u 0 ∈ H.<br />
Es gilt<br />
max ‖ju(t)‖ H + ‖u‖ L 2 (0,T;V ) + ‖u ′ ‖ L 2 (0,T;V ′ ) ≤ C ( ‖u 0 ‖ H + ‖f‖ L 2 (0,T;V )) ′ .<br />
t∈[0,T]<br />
für eine nur von T abhängende Konstante C.<br />
Das abstrakte Evolutionsproblem ist also wohlgestellt.<br />
Der Beweis erfolgt in mehreren Schritten und wird mit dem Galerkin-Verfahren,<br />
d.h. durch endlich-dimensionale Approximationen, geführt. Wir nehmen für<br />
den Rest dieses Abschnittes an, dass die Voraussetzungen von Satz 2.23 erfüllt<br />
sind.<br />
Lemma 2.24 Es existiert eine Folge (w n ) ⊂ V , so dass<br />
dim V n = n und V = ⋃ n∈NV n .<br />
für V n := span{w 1 , . . .,w n } gilt.<br />
Beweis. Sei {z 1 , z 2 , . . .} eine dichte Teilmenge von V . Definiere die Teilmenge<br />
{w 1 , w 2 , . . .} von {z 1 , z 2 , . . .} durch<br />
z i ∈ {w 1 , w 2 , . . .} : ⇐⇒ z i /∈ span{z 1 , . . .,z i−1 }.<br />
Dann sind die w i linear unabhängig mit span{w 1 , w 2 , . . .} = span{z 1 , z 2 , . . .} und<br />
daher V = ⋃ n∈N V n. Insbeson<strong>der</strong>e ist #{w 1 , w 2 , . . .} = ∞.<br />
□<br />
Sei nun P n die Orthogonalprojektion auf den (endlichdimensionalen und daher<br />
abgeschlossenen) Unterraum jV n von H. Nach Lemma 2.24 ist dann P n h → h<br />
für alle h ∈ H. (Man sagt “P n konvergiert stark gegen Id”.)<br />
Wir suchen Lösungen<br />
u n (t) =<br />
n∑<br />
c nk (t)w k , c nk : [0, T] → R, (2.8)<br />
k=1<br />
<strong>der</strong> Galerkin-Gleichungen<br />
{<br />
(ju ′ n (t), jv) H + B(u n (t), v, t) = 〈f(t), v〉 V ∀ v ∈ V n f.f.a. t,<br />
ju n (0) = P n u 0 ∈ H.<br />
(2.9)<br />
19
Unter Verwendung von (2.8) schreibt sich dies als<br />
⎧∑ n<br />
⎪⎨ k=1 c′ nk (t)(jw k, jw i ) H + ∑ n<br />
k=1 c nk(t)B(w k , w i , t) = 〈f(t), w i 〉 V ,<br />
1 ≤ i ≤ n f.f.a. t, (2.10)<br />
⎪⎩<br />
c nk (0) = α nk<br />
mit j −1 P n u 0 = ∑ n<br />
k=1 α nkw k .<br />
Da V n = span{w 1 , . . .,w n } ist, beschreiben die Galerkin-Gleichungen gerade<br />
das “auf V n projizierte Problem”.<br />
Satz 2.25 Die Galerkin-Gleichungen (2.9) haben eine eindeutige Lösung u n ∈<br />
W 1,2 (0, T; V n ). D.h. es existieren eindeutig bestimmte c n1 , . . .,c nn ∈ W 1,2 (0, T),<br />
so dass (2.10) gilt.<br />
Beweis. Da (w 1 , . . ., w n ) linear unabhängig ist, ist auch (jw 1 , . . .,jw n ) linear<br />
unabhängig, denn j ist injektiv. Die Matrix<br />
M := ((jw k , jw i ) H ) ik<br />
ist daher invertierbar. (Denn: Mx = 0 =⇒ ∑ i (jw k, jw i ) H x i = (jw k , ∑ i x ijw i ) H<br />
= 0 für alle k, so dass ∑ i x ijw i = 0 =⇒ x 1 = . . . = x n = 0.) Daher ist (2.10)<br />
äquivalent zu<br />
{<br />
c ′ n(t) + M −1 ˜B(t)cn (t) = M −1 ˜f(t) f.f.a. t<br />
(2.11)<br />
c n (0) = α n<br />
mit ˜B(t) = (B(w k , w i , t)) ik<br />
∈ L ∞ (0, T; R n×n ) nach Voraussetzung und ˜f(t) =<br />
(〈f(t), w i 〉 V ) i=1,...,n ∈ L 2 (0, T; R n ), da<br />
| ˜f i (t)| = |〈f(t), w i 〉 V | ≤ ‖f(t)‖ V ′‖w i ‖ V .<br />
Nach dem Satz von Picard-Lindelöf existiert nun eine eindeutig bestimmte<br />
absolut stetige Funktion c n : [0, T] → R n , die (2.11) fast überall erfüllt. Mit<br />
˜f ∈ L 2 ist dann in <strong>der</strong> Tat c n ∈ W 1,2 (0, T; R n ) die gesuchte Lösung. □<br />
Die zweite wichtige Zutat im Beweis von Satz 2.23 ist die folgende Energieabschätzung,<br />
die es uns erlauben wird, zum Limes <strong>der</strong> u n für n → ∞ überzugehen.<br />
Satz 2.26 Es gibt eine von n unabängige Konstante C > 0, so dass<br />
max ‖ju n(t)‖ H + ‖u n ‖ L 2 (0,T;V ) ≤ C ( )<br />
‖u 0 ‖ H + ‖f‖ L 2 (0,T;V ′ ) .<br />
t∈[0,T]<br />
Beweis. Mit v = u n (t) in (2.9) ergibt sich<br />
(ju ′ n(t), ju n (t)) H + B(u n (t), u n (t), t) = 〈f(t), u n (t)〉 V f.f.a. t.<br />
20
Nach Satz 2.25 ist t ↦→ ju n (t) ∈ W 1,2 (0, T; j(V n )) (mit dim j(V n ) = n < ∞), so<br />
dass gilt<br />
Es ist also<br />
∫ t<br />
‖ju n (t)‖ 2 H = ‖ju n (0)‖ 2 d<br />
H +<br />
0 ds (ju n(s), ju n (s)) H ds<br />
∫ t<br />
= ‖ju n (0)‖ 2 H + 2 (ju ′ n (s), ju n(s)) H ds.<br />
∫ t<br />
∫ t<br />
‖ju n (t)‖ 2 H + 2 B(u n (s), u n (s), s) ds = ‖P n u 0 ‖ 2 H + 2 〈f(s), u n (s)〉 V ds.<br />
0<br />
Unter Beachtung <strong>der</strong> “Koerzivitätsannahme” an B folgt nun<br />
∫ t<br />
‖ju n (t)‖ 2 H + 2c V ‖u n (s)‖ 2 V ds<br />
≤ ‖u 0 ‖ 2 H + 2c H<br />
0<br />
∫ t<br />
0<br />
0<br />
∫ t<br />
‖ju n (s)‖ 2 H ds + 2 ‖f(s)‖ V ′‖u n (s)‖ V ds.<br />
Mit Hilfe <strong>der</strong> Ungleichung ‖f(s)‖ V ′‖u n (s)‖ V ≤ 1<br />
2c V<br />
‖f(s)‖ 2 V ′+ c V<br />
2<br />
‖u n (s)‖ 2 V erhalten<br />
wir<br />
‖ju n (t)‖ 2 H + c V<br />
∫ t<br />
≤ ‖u 0 ‖ 2 H + 2c H<br />
∫ t<br />
Insbeson<strong>der</strong>e ist dann sicher<br />
‖ju n (t)‖ 2 H ≤ ‖u 0‖ 2 H + 1<br />
c V<br />
∫ T<br />
0<br />
0<br />
‖u n (s)‖ 2 V ds<br />
‖ju n (s)‖ 2 H ds + 1<br />
c V<br />
∫ t<br />
0<br />
‖f(s)‖ 2 V ′ ds + 2c H<br />
0<br />
0<br />
0<br />
‖f(s)‖ 2 V ′ ds. (2.12)<br />
∫ t<br />
0<br />
‖ju n (s)‖ 2 H ds.<br />
Aus <strong>der</strong> Gronwallschen Ungleichung 4 ergibt sich nun<br />
(<br />
‖ju n (t)‖ 2 H ≤ ‖u 0 ‖ 2 H + 1 ) (1<br />
‖f‖ 2 L<br />
c 2 (0,T;V ′ ) + 2cH te ) 2c Ht<br />
V<br />
und daher<br />
‖ju n (t)‖ 2 H ≤ C<br />
(<br />
)<br />
‖u 0 ‖ 2 H + ‖f‖ 2 L 2 (0,T;V ′ )<br />
(2.13)<br />
4 Zur Erinnerung: Ist g ∈ L 1 (0, T) mit 0 ≤ g(t) ≤ C 1<br />
∫ t<br />
0 g(s)ds + C 2 für fast alle t, so gilt<br />
g(t) ≤ C 2 (1 + C 1 te C1t ) fast überall auf [0, T].<br />
21
mit C = C(T). Dies in die rechte Seite von (2.12) eingesetzt liefert<br />
∫ T<br />
c V ‖u n (s)‖ 2 V ds<br />
0<br />
≤ ‖u 0 ‖ 2 H + 2c HTC<br />
(<br />
)<br />
‖u 0 ‖ 2 H + ‖f‖2 L 2 (0,T;V ′ ) + 1 ‖f‖ 2 L<br />
c 2 (0,T;V ′ ) ,<br />
V<br />
so dass für (ein vergrößertes) C = C(T) auch<br />
‖u n ‖ 2 L 2 (0,T;V ) ≤ C (‖u 0 ‖ 2 H + ‖f‖2 L 2 (0,T;V ′ )<br />
)<br />
(2.14)<br />
gilt. Die Behauptung folgt nun aus (2.13) und (2.14).<br />
Zur Vorbereitung auf den wesentlichen Kompaktheitsschluss in Lemma 2.28<br />
halten wir fest:<br />
Lemma 2.27 Der Raum L 2 (0, T; V ) ist reflexiv.<br />
Der Beweis dieses Lemmas in voller Allgemeinheit ist recht lang, so dass wir<br />
uns hier auf den für unsere Anwendungen ausreichenden Fall beschränken, dass V<br />
ein Hilbertraum ist. Das Problem ist das folgende: Wie im skalaren Fall ist es nicht<br />
schwer zu sehen, dass für beliebige Banachräume L q (0, T, V ′ ) ⊂ (L p (0, T; V )) ′ gilt,<br />
wenn 1 ≤ p < ∞ und 1+ 1 = 1 ist. Die Schwierigkeit besteht nun darin, dass diese<br />
p q<br />
Inklusion i.A. nicht surjektiv ist. Im Beweis <strong>der</strong> Surjektivität für skalare Funktionen<br />
benutzt man den Satz von Radon-Nikodym, <strong>der</strong> für allgemeine Banachräume<br />
nicht mehr gültig ist. Glücklicherweise stimmt er jedoch in unserer Situation, was<br />
sich z.B. daraus ergibt, dass wir V als reflexiv vorausgesetzt haben. 5 Der Beweis<br />
<strong>der</strong> Surjektivität ist dann ganz analog zum skalaren Fall.<br />
Beweis für Hilberträume V . Ist V ein Hilbertraum mit Skalarprodukt (·, ·) V , so<br />
ist nicht schwer zu sehen, dass L 2 (0, T; V ) ein Hilbertraum mit Skalarprodukt<br />
□<br />
(x, y) L 2 (0,T;V ) =<br />
∫ T<br />
ist. Hilberträume sind aber immer reflexiv.<br />
0<br />
(x(t), y(t)) V dt<br />
□<br />
Lemma 2.28 Es gibt eine Teilfolge von (u n ) (wie<strong>der</strong> mit (u n ) bezeichnet) und<br />
ein u ∈ L 2 (0, T; V ), so dass<br />
u n ⇀ u in L 2 (0, T; V ).<br />
5 Banachräume, in denen <strong>der</strong> Satz von Radon-Nikodym gilt, nennt man Banachräume mit<br />
<strong>der</strong> Radon-Nikodym-Eigenschaft. Beispiele sind reflexive Räume o<strong>der</strong> separable Dualräume –<br />
beide Bedingungen sind in unserem Fall erfüllt. Einzelheiten finden sich z.B. in [DU].<br />
22
Der schwache Limes u erfüllt die Gleichung<br />
− (u 0 , jv) H ϕ(0) −<br />
=<br />
∫ T<br />
0<br />
∫ T<br />
0<br />
〈f(t), v〉 V ϕ(t) dt<br />
〈Ju(t), v〉 V ϕ ′ (t) dt +<br />
für alle v ∈ V , ϕ ∈ C 1 ([0, T]) mit ϕ(T) = 0.<br />
∫ T<br />
0<br />
B(u(t), v, t)ϕ(t) dt<br />
Beweis. Nach Satz 2.26 und Lemma 2.27 ist (u n ) beschränkt im reflexiven Raum<br />
L 2 (0, T; V ). Es existiert also eine Teilfolge, die wir wie<strong>der</strong> mit (u n ) bezeichnen,<br />
und ein u ∈ L 2 (0, T; V ), so dass u n ⇀ u in L 2 (0, T; V ).<br />
Ist nun v ∈ V i , so folgt aus <strong>der</strong> Galerkin-Gleichung (2.9)<br />
∫ T<br />
0<br />
(ju ′ n (t), jv) Hϕ(t) dt +<br />
∫ T<br />
für n ≥ i. <strong>Partielle</strong> Integration liefert<br />
− (ju n (0), jv) H ϕ(0) −<br />
=<br />
∫ T<br />
0<br />
〈f(t), v〉 V ϕ(t) dt.<br />
∫ T<br />
0<br />
0<br />
B(u n (t), v, t)ϕ(t) dt =<br />
〈Ju n (t), v〉 V ϕ ′ (t) dt +<br />
∫ T<br />
0<br />
∫ T<br />
0<br />
〈f(t), v〉 V ϕ(t) dt<br />
B(u n (t), v, t)ϕ(t) dt<br />
Wegen ju n (0) = P n u 0 → u 0 in H, konvergiert <strong>der</strong> erste Term in diesem Ausdruck<br />
gegen −(u 0 , jv) H ϕ(0). Für den zweiten Term erhalten wir<br />
∫ T<br />
0<br />
〈Ju n (t), v〉 V ϕ ′ (t) dt →<br />
∫ T<br />
0<br />
〈Ju(t), v〉 V ϕ ′ (t) dt,<br />
denn es gilt u n ⇀ u in L 2 (0, T; V ) und die Abbildung z ↦→ ∫ T<br />
〈Jz(t), v〉 0 V ϕ ′ (t) dt<br />
ist ein stetiges lineares Funktional auf L 2 (0, T; V ): Die Linearität ist klar und die<br />
Stetigkeit folgt aus<br />
∫ T<br />
∫ T<br />
∣ 〈Jz(t), v〉 V ϕ ′ (t) dt<br />
∣ ≤ ‖J‖ L(V,V ′ )‖z(t)‖ V ‖v‖ V |ϕ ′ (t)| dt<br />
0<br />
0<br />
≤ ‖J‖ L(V,V ′ )‖v‖ V ‖ϕ ′ ‖ L 2 (0,T)‖z‖ L 2 (0,T;V ).<br />
Aus den Stetigkeitsannahmen an B ergibt sich ganz analog, dass <strong>der</strong> dritte Term<br />
gegen<br />
∫ T<br />
0<br />
B(u(t), v, t)ϕ(t) dt<br />
23
strebt. D<strong>am</strong>it ist<br />
− (u 0 , jv) H ϕ(0) −<br />
=<br />
∫ T<br />
0<br />
∫ T<br />
0<br />
〈f(t), v〉 V ϕ(t) dt<br />
〈Ju(t), v〉 V ϕ ′ (t) dt +<br />
∫ T<br />
0<br />
B(u(t), v, t)ϕ(t) dt<br />
für alle v ∈ V i bewiesen. Da i beliebig war und ⋃ n V n = V ist, zeigt nun ein<br />
Standard-Approximationsargument, dass diese Gleichung für alle v ∈ V gilt. □<br />
Bevor wir nun endlich den Satz 2.23 beweisen, halten wir noch die folgende<br />
Beobachtung fest:<br />
Lemma 2.29 Durch<br />
〈b(t), v〉 V = B(u(t), v, t) ∀ v ∈ V, t ∈ (0, T)<br />
wird eine Funktion b ∈ L 2 (0, T; V ′ ) definiert mit<br />
‖b‖ L 2 (0,T;V ′ ) ≤ C V ‖u‖ L 2 (0,T;V ).<br />
Beweis. Für alle t ist <strong>der</strong> Ausdruck B(u(t), v, t) linear in v ∈ V mit<br />
|B(u(t), v, t)| ≤ C V ‖u(t)‖ V ‖v‖ V ,<br />
was b(t) ∈ V ′ mit ‖b(t)‖ V ′ ≤ C V ‖u(t)‖ V zeigt.<br />
Die Abbildung t ↦→ b(t) ist stark messbar: Wähle einfache z n mit z n → u fast<br />
überall. Dann gilt B(z n (t), v, t) → B(u(t), v, t) für alle v ∈ V fast überall. Ist nun<br />
z n = ∑ N n<br />
i=1 ζ niχ Ani , ζ ni ∈ V , so ist B(z n (t), v, t) = ∑ N n<br />
i=1 χ A ni<br />
(t)B(ζ ni , v, t) und<br />
also messbar. Dies zeigt, dass t ↦→ B(u(t), v, t) eine messbare Funktion ist. Aus<br />
<strong>der</strong> Definition von b und <strong>der</strong> Reflexivität von V folgt nun, dass b : [0, T] → V ′<br />
schwach messbar ist. Nach Voraussetzung ist jedoch V ′ separabel, so dass nach<br />
dem Satz von Pettis b tatsächlich stark messbar ist.<br />
Wegen<br />
∫ T<br />
0<br />
‖b(t)‖ 2 V ′ dt ≤ C2 V<br />
∫ T<br />
0<br />
‖u(t)‖ 2 V dt<br />
folgt schließlich b ∈ L 2 (0, T; V ′ ) mit ‖b‖ L 2 (0,T;V ′ ) ≤ C V ‖u‖ L 2 (0,T;V ).<br />
Beweis von Satz 2.23.<br />
1. Existenz. Nach den Lemmas 2.28 und 2.29 ist für alle ϕ ∈ C ∞ c<br />
−<br />
∫ T<br />
0<br />
(ju(t), jv) H ϕ ′ (t) dt +<br />
so dass nach Lemma 2.19<br />
∫ T<br />
0<br />
〈b(t), v〉 V ϕ(t) dt =<br />
u ′ = −b + f ∈ L 2 (0, T; V ′ )<br />
24<br />
∫ T<br />
0<br />
(0, T)<br />
〈f(t), v〉 V ϕ(t) dt,<br />
□
gilt. Testen mit Elementen aus V zeigt, dass die Variationsgleichung<br />
〈u ′ (t), v〉 V + B(u(t), v, t) = 〈f(t), v〉 V ∀ v ∈ V f.f.a. t<br />
erfüllt ist.<br />
Setzt man nun −b + f = u ′ in die Formel aus Lemma 2.28 ein, so hat man<br />
−(u 0 , jv) H ϕ(0) −<br />
∫ T<br />
0<br />
〈Ju(t), v〉 V ϕ ′ (t) dt =<br />
∫ T<br />
0<br />
〈u ′ (t), v〉 V ϕ(t) dt<br />
für alle v ∈ V , ϕ ∈ C 1 ([0, T]) mit ϕ(T) = 0. An<strong>der</strong>erseits erhalten wir aus Satz<br />
2.20(ii) angewandt auf u und ϕv<br />
−(ju(0), jv) H ϕ(0) =<br />
∫ T<br />
0<br />
〈u ′ (t), ϕ(t)v〉 V + 〈ϕ ′ (t)Jv, u(t)〉 V dt.<br />
Aus den letzten beiden Gleichungen und Korollar 2.17 folgt aber<br />
(u 0 − ju(0), jv) H = 0 ∀ v ∈ V<br />
und d<strong>am</strong>it schließlich ju(0) = u 0 .<br />
2. Eindeutigkeit und stetige Abhängigkeit von den Daten. Mit Satz 2.20(ii)<br />
und <strong>der</strong> Variationsgleichung folgt für jede Lösung u<br />
1<br />
2 (ju(t), ju(t)) H − 1 2 (u 0, u 0 ) H =<br />
∫ t<br />
= −<br />
〈u ′ (s), u(s)〉 V ds<br />
0<br />
∫ t<br />
Wie im Beweis von Satz 2.26 ergibt sich nun<br />
0<br />
B(u(s), u(s), s) ds +<br />
∫ t<br />
∫<br />
1<br />
t<br />
∫ t<br />
2 ‖ju(t)‖2 H + c V ‖u(s)‖ 2 V ds − c H ‖ju(s)‖ 2 ds<br />
≤ 1 2 ‖u 0‖ 2 H + c V<br />
2<br />
0<br />
∫ t<br />
0<br />
‖u(s)‖ 2 V ds + 1<br />
2c V<br />
∫ t<br />
0<br />
0<br />
0<br />
‖f(s)‖ 2 V ′ ds<br />
〈f(s), u(s)〉 V ds.<br />
aus den Koerzivitätseigenschaften von B und aus dieser Ungleichung – genau wie<br />
im Beweis von Satz 2.26 –<br />
(<br />
)<br />
max ‖ju(t)‖ 2 H ≤ C ‖u 0 ‖ 2 H + ‖f‖ 2 L<br />
t<br />
2 (0,T;V ′ )<br />
und<br />
‖u‖ 2 L 2 (0,T;V ) ≤ C (‖u 0 ‖ 2 H + ‖f‖2 L 2 (0,T;V ′ )<br />
Aus <strong>der</strong> Variationsgleichung folgt schließlich<br />
|〈u ′ (t), v〉 V | ≤ C V ‖u(t)‖ V ‖v‖ V + ‖f(t)‖ V ′‖v‖ V ∀ v f.f.a. t,<br />
)<br />
.<br />
25
insbeson<strong>der</strong>e also<br />
‖u ′ (t)‖ V ′ ≤ C V ‖u(t)‖ V + ‖f(t)‖ V ′ f.f.a. t.<br />
Mit Hilfe <strong>der</strong> schon bewiesenen Abschätzungen erhalten wir<br />
‖u ′ ‖ L 2 (0,T;V ′ ) ≤ C ( ‖u‖ L 2 (0,T;V ) + ‖f‖ L 2 (0,T;V ′ ))<br />
≤ C<br />
(<br />
‖u0 ‖ H + ‖f‖ L 2 (0,T;V ′ ))<br />
.<br />
D<strong>am</strong>it ist nun<br />
max ‖ju(t)‖ H + ‖u‖ L 2 (0,T;V ) + ‖u ′ ‖ L 2 (0,T;V ′ ) ≤ C ( )<br />
‖u 0 ‖ H + ‖f‖ L 2 (0,T;V ′ )<br />
t∈[0,T]<br />
gezeigt.<br />
Die Eindeutigkeit ist nun eine einfache Folgerung aus dieser Abschätzung:<br />
Die Differenz zweier Lösungen ist eine Lösung des abstrakten Evolutionsproblems<br />
zum Startwert 0 und mit rechter Seite 0 und verschwindet d<strong>am</strong>it nach <strong>der</strong> eben<br />
bewiesenen Ungleichung.<br />
□<br />
Bemerkung 2.30 1. Lemma 2.29 zeigt, dass es einen linearen stetigen Operator<br />
A : L 2 (0, T; V ) → L 2 (0, T; V ′ ) gibt, so dass<br />
〈(Aw)(t), v〉 V = B(w(t), v, t) ∀v ∈ V, f.f.a. t.<br />
Mit diesem Operator lässt sich die Variationsgleichung in <strong>der</strong> Form<br />
u ′ + Au = f<br />
als Gleichung in L 2 (0, T; V ′ ) schreiben.<br />
2. Unter geeigneten Glattheitsannahmen an t ↦→ B(v, w, t), den Startwert u 0<br />
und die rechte Seite f kann man Regularitätsresultate von <strong>der</strong> Form u ∈<br />
W k,2 (0, T; V ), u ′ ∈ W k,2 (0, T; V ′ ) für die schwache Lösung u von (2.7)<br />
beweisen. Wir gehen hier nicht näher darauf ein. (Mehr dazu etwa in [Wl].)<br />
2.2.3 Anwendung auf die Konvektions-Diffusions-Gleichung<br />
Gemäß Definition 2.22 suchen wir schwache Lösungen <strong>der</strong> Konvektions-Diffusions-<br />
Gleichung (2.3).<br />
Satz 2.31 Es seien U ⊂ R n offen und beschränkt, a ij , b i , c ∈ L ∞ (U) und ∂ t + L<br />
mit<br />
∂ t u + Lu = ∂ t u − ∑ i,j<br />
∂ j (a ij ∂ i u) + ∑ i<br />
b i ∂ i u + c u<br />
26
gleichmäßig parabolisch. Des Weiteren seien u 0 ∈ L 2 (U), f ∈ L 2 (U T ). Dann hat<br />
die Konvektions-Diffusions-Gleichung<br />
⎧<br />
⎪⎨ ∂ t u + Lu = f in U T = U,<br />
u = 0 auf ∂U × (0, T),<br />
⎪⎩<br />
u = u 0 auf U × {0},<br />
eine eindeutige schwache Lösung u ∈ W.<br />
Beweis. Betrachte den Gelfandschen Dreier H0 1(U) ֒→ L2 (U) ֒→ (H0 1(U))′ mit<br />
<strong>der</strong> Inklusionsabbildung jv = v. Die Behauptung ist nach Satz 2.23 gezeigt,<br />
wenn wir überprüft haben, dass die Bilinearform B aus (2.5) und die Daten f<br />
die Voraussetzungen von Satz 2.23 erfüllen.<br />
Die Stetigkeits- und Koerzivitätsbedingungen ergeben sich wie bei den elliptischen<br />
Gleichungen (vgl. Skript PDG 1, Kap. 5). Zur Erinnnerung: Da alle<br />
Koeffizienten beschränkt sind, folgt<br />
|B(v, w, t)| ≤ C ( )<br />
‖∇v‖ L 2 (U)‖∇w‖ L 2 (U) + ‖∇v‖ L 2 (U)‖w‖ L 2 (U) + ‖v‖ L 2 (U)‖w‖ L 2 (U)<br />
≤ ‖v‖ H 1<br />
0<br />
(U)‖w‖ H 1<br />
0 (U)<br />
mit Hilfe <strong>der</strong> Poincaréschen Ungleichung. Des Weiteren ist wegen <strong>der</strong> gleichmäßigen<br />
Parabolizität für ein θ > 0<br />
|B(v, v, t)| ≥ θ‖∇v‖ 2 L 2 (U) − C‖∇v‖ L 2 (U)‖v‖ L 2 (U) − C‖v‖ 2 L 2 (U)<br />
≥ θ‖∇v‖ 2 L 2 (U) − θ 2 ‖∇v‖2 L 2 (U) − C′ ‖v‖ 2 L 2 (U) − C‖v‖2 L 2 (U)<br />
= θ 2 ‖v‖2 H 1 0 (U) − C′′ ‖v‖ 2 L 2 (U) .<br />
Dass f den Voraussetzungen von Satz 2.23 genügt, ergibt sich aus f(t) := f(·, t) ∈<br />
L 2 (U) für fast alle t, ∫ T<br />
0 ‖f(t)‖2 L 2 (U) dt = ‖f‖2 L 2 (U T ) < ∞, sowie L2 (0, T, L 2 (U)) ֒→<br />
L 2 (0, T, (H0(U)) 1 ′ ).<br />
□<br />
Beachte, dass hier <strong>der</strong> in Bemerkung 2.30,1 definierte Operator A : L 2 (0, T; V ) →<br />
L 2 (0, T; V ′ ) gerade gleich L : L 2 (0, T; H0(U)) 1 → L 2 (0, T; H −1 (U)) ist. Es gilt also<br />
∂ t + Lu = f<br />
in L 2 (0, T; H −1<br />
0 (U).<br />
Wir erwähnen noch die folgenden Regularitätsresultate, die wir allerdings<br />
nicht beweisen werden. (Ein Beweis findet sich z.B. in [Ev]).<br />
Satz 2.32 Es seien die Voraussetzungen von Satz 2.31 erfüllt. Des Weiteren<br />
sollen die Daten den Regularitätsannahmen<br />
u 0 ∈ H 2m+1 (U),<br />
d k f<br />
dt k ∈ L2 (0, T; H 2m−2k (U)),<br />
27<br />
k = 0, . . ., m
genügen. Gelten darüberhinaus die Kompatibilitätsbedingungen<br />
⎧<br />
u 0 ∈ H0 1<br />
⎪⎨<br />
(U),<br />
u 1 := f(0) − Lu 0 ∈ H0(U),<br />
1<br />
.<br />
⎪⎩<br />
u m := dm−1 f<br />
(0) − Lu<br />
dt m−1 m−1 ∈ H0 1(U),<br />
so gilt für die schwache Lösung u <strong>der</strong> Konvektions-Diffusions-Gleichung (2.3)<br />
d k u<br />
dt k ∈ L2 (0, T; H 2m+2−2k (U)), k = 0, . . .,m + 1.<br />
Insbeson<strong>der</strong>e ist dann nach den Sobolevschen Einbettungssätzen – ähnlich wie<br />
für die elliptischen Gleichungen, vgl. Skript PDG 1 – u eine klassische Lösung,<br />
wenn m hinreichend groß ist.<br />
Korollar 2.33 Gilt unter den Voraussetzungen von Satz 2.31 u 0 ∈ C ∞ (U), f ∈<br />
C ∞ (U T ) und sind die Kompatibilitätsbedingungen aus Satz 2.32 für jedes m ∈ N<br />
erfüllt, so gilt für die schwache Lösung u <strong>der</strong> Konvektions-Diffusions-Gleichung<br />
(2.3) u ∈ C ∞ (U T ).<br />
Bemerkung 2.34 1. Ist die Lösung u ∈ C ∞ (U T ), so kann man sich leicht<br />
überlegen, dass die Kompatibilitätsbedingungen aus Satz 2.32 erfüllt sein<br />
müssen. Die erste Bedingung besagt gerade, dass u 0 auf ∂U veschwinden<br />
muss, da ja u dort für alle positiven Zeiten gleich 0 sein muss. Das gleiche<br />
Argument angewendet auf ∂ t u zeigt, dass 0 = ∂ t u 0 = f(0) − Lu 0 gelten<br />
muss, u.s.w.<br />
2. Ohne die Kompatibilitätsbedingungen erhält man immer noch innere Abschätzungen<br />
an u.<br />
2.3 Lineare hyperbolische Gleichungen<br />
Es sei wie<strong>der</strong> U ⊂ R n ein beschränktes Gebiet. Wir untersuchen nun die verallgemeinerte<br />
Wellengleichung<br />
⎧<br />
⎪⎨ ∂ tt u + Lu = f in U T = U × (0, T],<br />
u = 0 auf ∂U × (0, T],<br />
(2.15)<br />
⎪⎩<br />
u = u 0 , ∂ t u = u 1 auf U × {0},<br />
wobei L genau wie zuvor in Divergenzform gegeben sei durch<br />
Lu = − ∑ i,j<br />
∂ j (a ij ∂ i u) + ∑ i<br />
b i ∂ i u + c u.<br />
28
Definition 2.35 Existiert ein von (x, t) unabhängiges θ > 0, so dass<br />
∑<br />
a ij ξ i ξ j ≥ θ|ξ| 2 ∀ ξ ∈ R n \ {0}<br />
i,j<br />
gilt, so nennt man ∂ tt + L gleichmäßig hyperbolisch.<br />
Für die physikalische Motivation verweisen wir auf die Motivation <strong>der</strong> Wellengleichung<br />
im Skript PDG 1. Beachte, dass nun ein Cauchy-Problem zweiter<br />
Ordnung gelöst werden muss, so dass wir zur Zeit t = 0 die Werte für u und u ′<br />
vorgeben müssen.<br />
Das Vorgehen ist ganz analog zur Herangehensweise an die parabolischen<br />
Probleme. Wir versuchen wie<strong>der</strong>, eine schwache Formulierung des Problems zu<br />
finden, indem wir t zunächst festzuhalten und in Analogie zur elliptischen Theorie<br />
Lu und f als Funktionale auf V := H0(U) 1 aufzufassen. Das führt nun dazu,<br />
dass wir Funktionen u mit ∂ tt u ∈ (H0 1(U))′ suchen. Wir testen also (2.15) mit<br />
(zunächst Cc ∞ -glatten) Funktionen v und integrieren partiell nach x, um<br />
〈∂ tt u, v〉 V + B(u, v, t) = 〈f, v〉 V (2.16)<br />
zu erhalten. Hier ist B(·, ·, t) die zu L gehörige Bilinearform, vgl. (2.5).<br />
Indem wir H = L 2 (U) setzen und for<strong>der</strong>n, dass (2.16) für alle v ∈ V = H 1 0<br />
gilt, gelangen wir zu dem folgenden abstrakten Evolutionsproblem, das wir nun<br />
untersuchen werden.<br />
Satz 2.36 Sei V ֒→ j<br />
H ֒→ j∗<br />
V ′ ein Evolutionstripel, V ein separabler ∞-dimensionaler<br />
Banachraum. Des Weiteren sei B : V × V × (0, T] → R eine Abbildung,<br />
so dass B(·, ·, t) bilinear ist für jedes t und so dass Konstanten c V , c H , C V > 0<br />
existieren mit<br />
(Stetigkeit) und<br />
|B(v, w, t)| ≤ C V ‖v‖ V ‖w‖ V ∀ v, w ∈ V, t ∈ (0, T]<br />
B(v, v, t) ≥ c V ‖v‖ 2 V − c H ‖jv‖ 2 H ∀ v ∈ V, t ∈ (0, T]<br />
(“Koerzivität”). Wir nehmen zusätzlich an, dass B(·, ·, t) symmetrisch ist, d.h.<br />
es ist<br />
B(v, w, t) = B(w, v, t) ∀ v, w ∈ V, t ∈ (0, T]<br />
und dass t ↦→ B(v, w, t) C 1 ist mit<br />
∣ ∂B ∣∣∣<br />
∣ ∂t (v, w, t) ≤ ˜C V ‖v‖ V ‖w‖ V ∀ v, w ∈ V, t ∈ (0, T]<br />
29
für eine Konstante ˜C V . Sei schließlich u 0 ∈ V , u 1 ∈ H, f ∈ L 2 (0, T; H). Dann<br />
gibt es genau eine Lösung u ∈ ˜W := {w ∈ L 2 (0, T; V ) : w ′ ∈ L 2 (0, T; H), w ′′ ∈<br />
L 2 (0, T; V ′ )} <strong>der</strong> Variationsgleichung<br />
{<br />
〈u ′′ (t), v〉 V + B(u(t), v, t) = (f(t), jv) H ∀v ∈ V f.f.a. t,<br />
(2.17)<br />
u(0) = u 0 , u ′ (0) = u 1 .<br />
Es gilt<br />
max (‖u(t)‖ V + ‖u ′ (t)‖ H ) + ‖u ′′ ‖ L 2 (0,T;V ′ ) ≤ C ( )<br />
‖u 0 ‖ V + ‖u 1 ‖ H + ‖f‖ L 2 (0,T;H)<br />
t∈[0,T]<br />
für eine nur von T abhängende Konstante C.<br />
Bemerkung 2.37 1. Beachte, dass für Elemente w aus ˜W insbeson<strong>der</strong>e jw,<br />
w ′ ∈ L 2 (0, T; H) sowie j ∗ w ′ , w ′′ ∈ L 2 (0, T; V ′ ) ist, so dass jw ∈ C([0, T]; H)<br />
sowie j ∗ w ′ ∈ C([0, T]; V ′ ) gilt. Die Bedingungen u(0) = u 0 und u ′ (0) = u 1<br />
sind also sinnvoll zu interpretieren. (Man kann sogar zeigen, dass w ∈<br />
C([0, T]; V ) sowie w ′ ∈ C([0, T]; H) gilt.)<br />
2. Wie im parabolischen Fall ergibt sich daraus nun ein Wohlgestelltheitsresultat<br />
für die ursprünglich gegebene Gleichung (2.15). Beachte jedoch, dass<br />
wir hier nur den Fall, dass L formal selbstadjungiert ist, behandeln. Mit<br />
etwas mehr Arbeit erhält man aber ein entsprechendes Resultat auch für<br />
allgemeine b ≢ 0.<br />
Wir nehmen für den Rest dieses Abschnittes an, dass die Voraussetzungen<br />
von Satz 2.36 erfüllt sind.<br />
Wie in Abschnitt 2.2 sei (w n ) ⊂ V eine Folge linear unabhängiger Elemente<br />
aus V , so dass V = ⋃ n∈N V n gilt für V n := span{w 1 , . . .,w n }. Wähle Folgen<br />
(u 0n ), (u 1n ) mit u 0n , u 1n ∈ V n , etwa<br />
u 0n =<br />
n∑<br />
i=1<br />
α (0)<br />
nk w k, u 1n =<br />
n∑<br />
i=1<br />
α (1)<br />
nk w k,<br />
so dass u 0n → u 0 in V und ju 1n → u 1 in H. Wir suchen Lösungen u n von <strong>der</strong><br />
Form<br />
n∑<br />
u n (t) = c nk (t)w k , c nk : [0, T] → R,<br />
k=1<br />
<strong>der</strong> Galerkin-Gleichungen<br />
{<br />
(ju ′′ n (t), jw i) H + B(u n (t), w i , t) = (f(t), jw i ) H , 1 ≤ i ≤ n f.f.a. t,<br />
u n (0) = u 0n , u ′ n(0) = u 1n .<br />
(2.18)<br />
30
Satz 2.38 Die Galerkin-Gleichungen (2.18) haben eine eindeutige Lösung u n ∈<br />
W 2,2 (0, T; V n ). Es gibt eine von n unabhängige Konstante C > 0, so dass<br />
max<br />
t∈[0,T] (‖ju′ n(t)‖ H + ‖u n (t)‖ V ) ≤ C ( )<br />
‖u 0n ‖ V + ‖ju 1n ‖ H + ‖f‖ L 2 (0,T;H) .<br />
Beweis. Die Existenz und Eindeutigkeit ergibt sich ganz ähnlich wie im parabolischen<br />
Fall aus dem Satz von Picard-Lindelöf, nun angewandt auf eine lineare<br />
Gleichung zweiter Ordnung.<br />
Um die Abschätzung für u n zu beweisen, multiplizieren wir die Galerkin-<br />
Gleichung (2.18) mit c ′ ni (t) und summieren über i = 1, . . ., n. Das führt auf<br />
(ju ′′ n(t), ju ′ n(t)) H + B(u n (t), u ′ n(t), t) = (f(t), ju ′ n(t)) H .<br />
Da B(·, ·, t) als symmetrisch vorausgesetzt ist, impliziert dies<br />
d (<br />
‖ju<br />
′<br />
dt n (t)‖ 2 H + B(u n(t), u n (t), t) ) − ∂B<br />
∂t (u n(t), u n (t), t) = 2(f(t), ju ′ n (t)) H.<br />
Integration von 0 bis t ergibt nun<br />
‖ju ′ n (t)‖2 H + c V ‖u n (t)‖ 2 V ≤ c H‖ju n (t)‖ 2 H + ‖ju 1n‖ 2 H + C V ‖u 0n ‖ V<br />
∫ t<br />
∫ t<br />
+ ˜C V ‖u n (s)‖ 2 V ds + 2 ‖f(s)‖ H ‖ju ′ n (s)‖ H ds,<br />
0<br />
wobei wir die Stetigkeit und die “Koerzivitätseigenschaft” von B ausgenutzt haben.<br />
Dies zeigt<br />
)<br />
‖ju ′ n (t)‖2 H + ‖u n(t)‖ 2 V ≤ C‖ju n(t)‖ 2 H<br />
(‖u + C 0n ‖ 2 V + ‖ju 1n‖ 2 H + ‖f‖2 L 2 (0,T;H)<br />
+ C<br />
∫ t<br />
0<br />
0<br />
‖ju ′ n (s)‖2 H + ‖u n(s)‖ 2 V ds. (2.19)<br />
Um darauf nun die Gronwallsche Ungleichung anwenden zu können, müssen wir<br />
noch ‖ju n (t)‖ 2 H abschätzen. In <strong>der</strong> Tat kann dieser Term wegen<br />
∫ t<br />
(∫ t<br />
‖ju n (t)‖ H ≤ ‖ju 0n ‖ H +<br />
und somit<br />
0<br />
‖ju ′ n(s)‖ H ds ≤ ‖ju 0n ‖ H + T 1 2<br />
∫ t<br />
‖ju n (t)‖ 2 H ≤ 2‖ju 0n‖ 2 H + 2T ‖ju ′ n (s)‖2 H ds<br />
0<br />
0<br />
‖ju ′ n(s)‖ 2 H ds<br />
in die übrigen Terme auf <strong>der</strong> rechten Seite von (2.19) absorbiert werden. Die<br />
Gronwallsche Ungleichung liefert dann<br />
(<br />
)<br />
‖ju ′ n(t)‖ 2 H + ‖u n (t)‖ 2 V ≤ C ‖u 0n ‖ 2 V + ‖ju 1n ‖ 2 H + ‖f‖ 2 L 2 (0,T;H) .<br />
31<br />
)1<br />
2<br />
□
Lemma 2.39 Sei u n die eindeutige Lösung <strong>der</strong> Galerkin-Gleichungen (2.18).<br />
Es gibt eine Teilfolge (wie<strong>der</strong> mit (u n ) bezeichnet) und ein u ∈ L 2 (0, T; V ) mit<br />
u ′ ∈ L 2 (0, T; H) und u(0) = u 0 , so dass<br />
Es gilt<br />
und<br />
u n ⇀ u in L 2 (0, T; V )<br />
und ju ′ n ⇀ u ′ in L 2 (0, T; H).<br />
ess sup (‖u ′ (t)‖ H + ‖u(t)‖ V ) ≤ C ( )<br />
‖u 0 ‖ V + ‖u 1 ‖ H + ‖f‖ L 2 (0,T;H)<br />
t∈[0,T]<br />
∫ T<br />
(−u ′ (t), jv) H ϕ ′ (t) dt +<br />
0<br />
∫ T<br />
=<br />
0<br />
∫ T<br />
0<br />
B(u(t), v, t)ϕ(t) dt<br />
(f(t), jv) H ϕ(t) dt + (u 1 , jv) H ϕ(0)<br />
für alle ϕ ∈ C 1 ([0, T]) mit ϕ(T) = 0 und v ∈ V .<br />
Beweis. Da L 2 (0, T; V ) und L 2 (0, T; H) reflexiv sind (s. Lemma 2.27) gibt es<br />
u ∈ L 2 (0, T; V ) und w ∈ L 2 (0, T; H), so dass für eine geeignete Teilfolge (u n ) gilt<br />
u n ⇀ u in L 2 (0, T; V ) und ju ′ n ⇀ w in L 2 (0, T; H),<br />
denn nach Satz 2.38 ist ‖u n (t)‖ L 2 (0,T;V ) + ‖ju ′ n (t)‖ L 2 (0,T;H) ≤ C. Insbeson<strong>der</strong>e ist<br />
also für alle ϕ ∈ C ∞ c ([0, T]) und v ∈ V<br />
∫ T<br />
0<br />
∫ T<br />
(ju(t), jv) H ϕ ′ (t) dt = lim (ju n (t), jv) H ϕ ′ (t) dt<br />
n<br />
0<br />
(∫ T<br />
)<br />
= − lim (ju ′ n (t), jv) n<br />
Hϕ(t) dt<br />
= −<br />
∫ T<br />
0<br />
0<br />
(w(t), jv) H ϕ(t) dt.<br />
Ähnlich wie in Lemma 2.19 ist daher w = u ′ . D<strong>am</strong>it ist Satz 2.20(ii) anwendbar,<br />
so dass für alle ϕ ∈ C 1 ([0, T]) mit ϕ(T) = 0 und v ∈ V gilt<br />
− (ju(0), jv) H ϕ(0) −<br />
=<br />
∫ T<br />
0<br />
∫ T<br />
(ju(t), jv) H ϕ ′ (t) dt<br />
∫ T<br />
= lim (ju n (t), jv) H ϕ ′ (t) dt<br />
n<br />
0<br />
= lim<br />
n<br />
(−(ju 0n , jv) H ϕ(0) −<br />
= −(ju 0 , jv) H ϕ(0) −<br />
0<br />
∫ T<br />
0<br />
(u ′ (t), jv) H ϕ(t) dt<br />
∫ T<br />
0<br />
)<br />
(ju ′ n (t), jv) Hϕ(t) dt<br />
(u ′ (t), jv) H ϕ(t) dt,<br />
32
insbeson<strong>der</strong>e also u(0) = u 0 . Dies zeigt die erste Behauptung.<br />
Tatsächlich gilt nach Satz 2.38 sogar<br />
max (‖ju ′ n (t)‖ H + ‖u n (t)‖ V ) ≤ C ( ‖u 0n ‖ V + ‖ju 1n ‖ H + ‖f‖ L (0,T;H)) 2 ,<br />
t∈[0,T]<br />
wobei die rechte Seite gegen C(‖u 0 ‖ V + ‖u 1 ‖ H + ‖f‖ L 2 (0,T;H)) konvergiert. Da<br />
{v ∈ L 2 (0, T; X) : ess sup t ‖v(t)‖ X ≤ C} eine abgeschlossene konvexe Teilmenge<br />
in L 2 (0, T; X) ist (X = V o<strong>der</strong> X = H), gilt für die schwachen Limites u und u ′<br />
sogar<br />
ess sup (‖u ′ (t)‖ H + ‖u(t)‖ V ) ≤ C ( ‖u 0 ‖ V + ‖u 1 ‖ H + ‖f‖ L (0,T;H)) 2 .<br />
t∈[0,T]<br />
Ist schließlich v ∈ V i , so erhalten wir aus <strong>der</strong> Galerkin-Gleichung für alle<br />
ϕ ∈ C 1 ([0, T]) mit ϕ(T) = 0<br />
∫ T<br />
0<br />
(ju ′′ n (t), jv) Hϕ(t) + B(u n (t), v, t)ϕ(t) dt =<br />
wenn n ≥ i. <strong>Partielle</strong> Integration ergibt<br />
∫ T<br />
0<br />
(f(t), jv) H ϕ(t) dt,<br />
∫ T<br />
(−ju ′ n (t), jv) Hϕ ′ (t) + B(u n (t), v, t)ϕ(t) dt<br />
0<br />
∫ T<br />
=<br />
0<br />
(f(t), jv) H ϕ(t) dt + (ju 1n , jv) H ϕ(0).<br />
Ganz analog zum parabolischen Fall (s. Lemma 2.28) ergibt sich nun durch Übergang<br />
zum Limes n → ∞<br />
∫ T<br />
(−u ′ (t), jv) H ϕ ′ (t) dt +<br />
0<br />
∫ T<br />
=<br />
0<br />
∫ T<br />
0<br />
B(u(t), v, t)ϕ(t) dt<br />
(f(t), jv) H ϕ(t) dt + (u 1 , jv) H ϕ(0).<br />
Wir können nun die Existenzaussage und die stetige Abhängigkeit von den<br />
Daten in Satz 2.36 beweisen.<br />
Beweis von Satz 2.36, Teil 1. Wir zeigen, dass u aus Lemma 2.39 eine Lösung<br />
<strong>der</strong> Variationsgleichung ist, die <strong>der</strong> behaupteten Stetigkeitsabschätzung genügt.<br />
Nach Lemma 2.39 gilt<br />
∫ T<br />
0<br />
(−u ′ (t), jv) H ϕ ′ (t) dt +<br />
∫ T<br />
0<br />
〈b(t), v〉 V ϕ(t) dt =<br />
∫ T<br />
0<br />
(f(t), jv) H ϕ(t) dt<br />
□<br />
33
für alle ϕ ∈ C 1 ([0, T]) mit ϕ(0) = ϕ(T) = 0 und v ∈ V , wobei b wie in Lemma<br />
2.29 definiert ist. Dies zeigt nach Lemma 2.19<br />
so dass in <strong>der</strong> Tat u ∈ ˜W und<br />
u ′′ + b = j ∗ f in L 2 (0, T; V ′ ),<br />
〈u ′′ (t), v〉 + B(u, v, t) = (f(t), jv) H ∀ v ∈ V f.f.a t<br />
gilt.<br />
Für die Existenz bleibt zu zeigen, dass u ′ (0) = u 1 ist. Sei ϕ ∈ C 1 ([0, T]) mit<br />
ϕ(T) = 0, v ∈ V . Ähnlich wie im Beweis von Satz 2.20(ii) sieht man, dass<br />
(u ′ (t), jv) H ϕ(t) = (u ′ (s), jv) H ϕ(s) +<br />
∫ t<br />
s<br />
〈u ′′ (τ), v〉 V ϕ(τ) + (u ′ (τ), jv) H ϕ ′ (τ) dτ<br />
für fast alle 0 < s < t < T gilt. Die rechte Seite dieser Gleichung ist stetig in s<br />
und t. Da aber j ∗ u ′ ∈ W 1,2 (0, T; V ′ ) ⊂ C([0, T]; V ′ ) gilt, ist auch die linke Seite<br />
stetig in s und t. Die Gleichung gilt also für alle 0 ≤ s ≤ t ≤ T und insbeson<strong>der</strong>e<br />
ist<br />
(u ′ (0), jv) H ϕ(0) = −<br />
=<br />
∫ T<br />
0<br />
∫ T<br />
0<br />
〈u ′′ (τ), v〉 V ϕ(τ) + (u ′ (τ), jv) H ϕ ′ (τ) dτ<br />
(B(u(τ), v, τ) − (f(τ), jv) H ) ϕ(τ) − (u ′ (τ), jv) H ϕ ′ (τ) dτ<br />
= (u 1 , jv) H ϕ(0)<br />
nach <strong>der</strong> Variationsgleichung und Lemma 2.39. Es folgt u ′ (0) = u 1 .<br />
Für die stetige Abhängigkeit von u 0 , u 1 und f bleibt nach Lemma 2.39 zu<br />
zeigen, dass<br />
‖u ′′ ‖ L 2 (0,T;V ′ ) ≤ C ( )<br />
‖u 0 ‖ V + ‖u 1 ‖ H + ‖f‖ L 2 (0,T;H)<br />
gilt. Dies folgt aber ganz analog wie die Abschätzung für u ′ im parabolischen Fall<br />
aus <strong>der</strong> Variationsgleichung und den schon bewiesenen Abschätzungen. □<br />
Wir kommen nun zur Eindeutigkeit. Die Schwierigkeit liegt hier bei den hyperbolischen<br />
Gleichungen darin, dass wir die Variationsgleichung nicht mit u ′ (t)<br />
testen dürfen, da dies zwar in H, womöglich aber nicht in V liegt.<br />
Lemma 2.40 Sei u eine Lösung <strong>der</strong> Variationsgleichung (2.17) mit u 0 = 0,<br />
u 1 = 0 und f = 0. Ist<br />
{∫ s<br />
u(τ) dτ, für 0 ≤ t ≤ s,<br />
v(t) :=<br />
t<br />
0, für s ≤ t ≤ T,<br />
so liegt die Abbildung t ↦→ v(t) in W 1,2 (0, T; V ) für jedes s und es gilt<br />
( ∫ s<br />
)<br />
‖ju(s)‖ 2 H + ‖v(0)‖2 V ≤ C ‖jv(0)‖ 2 H + ‖v(t)‖ 2 V dt .<br />
34<br />
0
Beweis. Klar, dass v und v ′ in L 2 (0, T, V ) liegen mit<br />
{<br />
v ′ −u(t), für 0 ≤ t ≤ s,<br />
(t) :=<br />
0, für s ≤ t ≤ T.<br />
Aus <strong>der</strong> Variationsgleichung folgt<br />
∫ s<br />
0<br />
〈u ′′ (t), v(t)〉 V + B(u(t), v(t), t) dt = 0.<br />
Wegen u ′ (0) = 0 und v(s) = 0 ergibt sich daraus mit partieller Integration<br />
∫ s<br />
0<br />
(u ′ (t), ju(t)) H − B(v ′ (t), v(t), t) dt = 0,<br />
wobei wir v ′ (t) = −u(t) ausgenutzt haben. Unter Ausnutzung von d B(v(t), v(t), t) =<br />
dt<br />
2B(v ′ (t), v(t), t) + ∂B (v(t), v(t), t) ergibt Aufintegrieren<br />
∂t<br />
∫ s<br />
‖ju(s)‖ 2 H + B(v(0), v(0), 0) = −1 ∂B<br />
(v(t), v(t), t) dt<br />
2 ∂t<br />
und d<strong>am</strong>it<br />
‖ju(s)‖ 2 H + c V ‖v(0)‖ 2 V ≤ c H ‖v(0)‖ 2 H + ˜C V<br />
2<br />
0<br />
∫ s<br />
0<br />
‖v(t)‖ 2 V dt.<br />
□<br />
Beweis von Satz 2.36, Teil 2. Um den Beweis von Satz 2.36 abzuschließen,<br />
nehmen wir an, u sei eine Lösung <strong>der</strong> Variationsgleichung (2.17) mit u 0 = 0,<br />
u 1 = 0 und f = 0 und müssen zeigen, dass u = 0 ist.<br />
Setze<br />
w(t) :=<br />
∫ t<br />
0<br />
u(τ) dτ.<br />
Nach Lemma 2.40 ist dann wegen v(t) = w(s) − w(t) für t ≤ s<br />
( ∫ s<br />
)<br />
‖ju(s)‖ 2 H + ‖w(s)‖ 2 V ≤ C ‖jw(s)‖ 2 H + ‖w(s) − w(t)‖ 2 V dt .<br />
Mit ‖jw(s)‖ H ≤ ∫ s<br />
‖ju(t)‖ 0 H ≤ T 1 2<br />
2‖w(t)‖ 2 V folgt daher<br />
‖ju(s)‖ 2 H + ‖w(s)‖2 V ≤ ˜C<br />
∫ s<br />
0<br />
0<br />
(∫ s )1<br />
0 ‖ju(t)‖2 2<br />
H und ‖w(s)−w(t)‖ 2 V ≤ 2‖w(s)‖2 V +<br />
‖w(t)‖ 2 V + ‖ju(t)‖2 H dt + ˜Cs‖w(s)‖ 2 V<br />
für eine Konstante ˜C = ˜C(T). Für s ≤ ˜T := 1 ist d<strong>am</strong>it ˜C<br />
‖ju(s)‖ 2 H + ‖w(s)‖ 2 V ≤ 2 ˜C<br />
∫ s<br />
0<br />
2<br />
‖w(t)‖ 2 V + ‖ju(t)‖ 2 H dt<br />
und daher nach <strong>der</strong> Gronwallschen Ungleichung u ≡ 0 auf [0, ˜T]. Dieses Argument<br />
lässt sich nun für [ ˜T, 2 ˜T], [2 ˜T, 3 ˜T], . . . iterieren.<br />
□<br />
35
Bemerkung 2.41 Unter geeigneten Voraussetzungen an die Koeffizienten von<br />
L und die Daten u 0 , u 1 und f und unter Kompatibilitätsannahmen an u 0 , u 1 und<br />
f lassen sich Regularitätsresultate für die Lösung von (2.15) beweisen, vgl. etwa<br />
[Ev].<br />
2.4 Lineare hyperbolische Systeme erster Ordnung<br />
Im letzten Abschnitt des Kapitels betrachten wir Systeme von PDG <strong>der</strong> Form<br />
{<br />
∂ t u + ∑ n<br />
j=1 B j ∂ j u = f in R n × (0, T],<br />
(2.20)<br />
u = 0 auf R n × {0}.<br />
Die gesuchte Funktion u ist hier die vektorielle Größe u : R n × [0, T] → R m .<br />
u 0 : R n → R m bezeichnet den gegebenen Startwert und f : R n × [0, T] → R m die<br />
rechte Seite. Die Koeffizienten sind gegeben durch n Matrix-wertige Abbildungen<br />
B j : R n × [0, T] → R m×m .<br />
Definition 2.42 Für x, ξ ∈ R n , t ≥ 0 setze<br />
B(x, t; ξ) :=<br />
n∑<br />
ξ j B j (x, t).<br />
j=1<br />
(i) Das System von PDG (2.20) heißt hyperbolisch, wenn B(x, t; ξ) diagonalisierbar<br />
ist für alle x, ξ ∈ R n , t ≥ 0.<br />
Ist (2.20) hyperbolisch, so bezeichnen wir mit<br />
λ k (x, t; ξ) bzw. r k (x, t; ξ), k = 1, . . .,m,<br />
die Eigenwerte und die zugehörigen Eigenvektoren von B(x, t; ξ).<br />
(ii) (2.20) heißt symmetrisches hyperbolisches System erster Ordnung, wenn die<br />
B j (x, t) symmetrisch sind für alle (x, t) und j. (Dann ist auch B(x, t; ξ)<br />
symmetrisch und insbeson<strong>der</strong>e diagonalisierbar.)<br />
Beispiel: Es seien alle B j konstant und f ≡ 0. Spezielle Lösungen von (2.20) sind<br />
von <strong>der</strong> Form wan<strong>der</strong>n<strong>der</strong> Wellen<br />
u(x, t) = v(ξ · x − ct), v : R → R m , ξ ∈ R n mit |ξ| = 1, c ∈ R.<br />
Ein solcher Ansatz beschreibt gerade Wellen mit Wellenprofil v, die sich mit<br />
Geschwindigkeit c in Richtung ξ ausbreiten.<br />
36
Einsetzen in (2.20) zeigt, dass u eine Lösung genau dann ist, wenn<br />
−cv ′ + ∑ j<br />
B j v ′ ξ j = 0<br />
gilt, d.h. wenn v ′ ein Eigenvektor von B(ξ) mit Eigenwert c ist. Ist das System hyperbolisch,<br />
erhalten wir für jedes ξ und jedes eindimensionale Profil φ ∈ C 1 (R; R)<br />
also m verschiedene wan<strong>der</strong>nde Wellen<br />
(x, t) ↦→ φ(ξ · x − λ k (ξ)t)r k (ξ),<br />
k = 1, . . .,m.<br />
Wir werden <strong>der</strong> Einfachheit halber nur symmetrische Systeme betrachten.<br />
Durch Testen mit glatten Funktionen gelangt man wie<strong>der</strong> zum Begriff <strong>der</strong> schwachen<br />
Lösungen. Im Folgenden bezeichne (·, ·) das Skalarprodukt auf L 2 (R n ; R m ).<br />
Definition 2.43 Für beschränkte B j definieren wir durch<br />
∫<br />
B(u, v, t) :=<br />
R n j=1<br />
n∑<br />
(B j (x, t) ∂ j u(x)) · v(x) dx<br />
eine Bilinearform B(·, ·, t) auf H 1 (R n ; R m ).<br />
u ∈ L 2 (0, T; H 1 (R n ; R m )) mit u ′ ∈ L 2 (0, T; L 2 (R n ; R m )) heißt schwache Lösung<br />
von (2.20), wenn<br />
{<br />
(u ′ (t), v) + B(u(t), v, t) = (f(t), v) ∀ v ∈ L 2 (R n ; R m ) f.f.a. t ∈ [0, T],<br />
u(0) = u 0 .<br />
Beachte, dass die Bedingung u(0) = u 0 sinnvoll interpretiert werden kann.<br />
Ziel dieses Abschnitts ist <strong>der</strong> folgende Satz:<br />
Satz 2.44 Seien B j ∈ C 2 (R n × [0, T]; R m×m ) symmetrisch mit<br />
‖B j ‖ W 2,∞ (R n ×[0,T]) < ∞ für j = 1, . . ., n.<br />
Weiter sei u 0 ∈ H 1 (R n ; R m ), f ∈ H 1 (R n × (0, T); R m ). Dann gibt es genau eine<br />
schwache Lösung u von (2.20). u erfüllt die Abschätzungen<br />
(<br />
ess sup ‖u(t)‖L 2 (0,T;H 1 (R n ;R m )) + ‖u ′ (t)‖ L 2 (0,T;L 2 (R n ;R )))<br />
m<br />
0≤t≤T<br />
≤ C ( )<br />
‖u 0 ‖ H 1 (R n ;R m ) + ‖f‖ H 1 (R n ×(0,T);R m )<br />
für ein C = C(T).<br />
37
Wir beweisen diesen Satz mit <strong>der</strong> vanishing viscosity-Methode: Dazu führen<br />
wir einen Extraterm ε∆u in die Gleichungen ein, die wir daraufhin mit schon<br />
bekannten Resultaten lösen können. Im Grenzfall ε → 0 hoffen wir dann, Lösungen<br />
des Ausgangsproblems zu finden. (Im anschließenden Kapitel 3 werden wir<br />
sehen, dass ∆u unter geeigneten Voraussetzungen tatsächlich als physikalische<br />
Viskosität interpretiert werden kann.) Beachte, dass, obwohl ε klein ist, die PDG<br />
durch den Term ε∆u erheblich beeinflusst wird, da wir mit einem Term höherer<br />
Ordnung (hier zweite Ableitungen) stören. Man spricht auch von einer singulären<br />
Störung.<br />
Satz 2.45 Für jedes ε > 0 gibt es eine eindeutige (schwache) Lösung u ε ∈<br />
L 2 (0, T; H 1 (R n , R m )) mit u ′ ε ∈ L 2 (0, T; L 2 (R n , R m )) von<br />
{<br />
∂ t u ε − ε∆u ε + ∑ j B j ∂ j u ε = f in R n × (0, T),<br />
(2.21)<br />
u ε (·, 0) = u 0ε := η ε ∗ u 0 auf R n × {0},<br />
η ε <strong>der</strong> skalierte Standard-Glättungskern. Es gilt<br />
u ε ∈ L 2 (0, T; H 3 (R n )), ∂ t u ε ∈ L 2 (0, T; H 1 (R n )).<br />
(Es ist klar, wie schwache Lösungen hier zu verstehen sind.)<br />
Da wir im vorigen Abschnitt die Regularitätsresultate für parabolische Gleichungen<br />
zwar angesprochen, aber nicht bewiesen haben, beweisen wir zunächst<br />
das folgende Lemma. Beachte, dass die Existenz einer eindeutigen (schwachen)<br />
Lösung des folgenden Evolutionsproblems direkt aus Satz 2.23 folgt.)<br />
Lemma 2.46 Sei v 0 ∈ H 1 (R n ), g ∈ L 2 (R n × (0, T)) sowie v = v ε die eindeutige<br />
schwache Lösung von<br />
{<br />
∂ t v − ε∆v = g in R n × (0, T),<br />
v(·, 0) = v 0 auf R n × {0}.<br />
Es gilt v ∈ L 2 (0, T; H 2 (R n )), ∂ t v ∈ L 2 (0, T; L 2 (R n )), und es gibt eine nur von T<br />
abhängende Konstante C, so dass gilt<br />
(<br />
ess sup ‖v(t)‖ 2 H 1 (R n ) ≤ C ‖v 0 ‖ 2 H + 1 ∫ t<br />
)<br />
‖g(s)‖ 2 1 L<br />
t∈[0,T]<br />
ε<br />
ds . 2<br />
Liegt v 0 in H 2 (R n ) und g in L 2 (0, T; H 1 (R n )), so gilt<br />
v ∈ L 2 (0, T; H 3 (R n )), ∂ t v ∈ L 2 (0, T; H 1 (R n )).<br />
Ist sogar v 0 ∈ H 3 (R n ) und g ∈ L 2 (0, T; H 2 (R n )) mit g ′ ∈ L 2 (0, T; L 2 (R n )), so gilt<br />
∂ t v ∈ L 2 (0, T; H 2 (R n )), ∂ 2 t v ∈ L2 (0, T; L 2 (R n )).<br />
0<br />
38
Beweis. Es sei zunächst v 0 ∈ Cc ∞ (R n ), g ∈ Cc ∞ (R n × [0, T)). Dann gibt es eine<br />
klassische Lösung v des Problems definiert durch<br />
∫<br />
∫ t<br />
∫<br />
v(ε 1 2 x, t) = Φ(x − y, t)v 0 (ε −1 2 y) dy + Φ(x − y, t − s)g(ε −1 2 y, s) dy ds,<br />
R n 0 R n<br />
wobei Φ(x, t) = (4πt) − n 2 e − x2<br />
4t die Fund<strong>am</strong>entallösung <strong>der</strong> Wärmeleitungsgleichung<br />
ist (vgl. Skript PDG 1, Korollar 2.26). Es ist nicht schwer zu sehen, dass v<br />
mit allen Ableitungen exponentiell schnell gegen 0 konvergiert für |x| → ∞. (Das<br />
ergibt sich wie im Skript PDG 1, da ∂ α v unter dem Integral differenziert werden<br />
darf und ∂t k v = ε k ∆ k v ist.)<br />
Wir dürfen also mit v und ∂ t v testen. Es folgt (teste mit v)<br />
so dass<br />
d<br />
dt<br />
∫ ∫<br />
v 2 dx ≤ ∂ t (v 2 ) + 2ε|∇v| 2 dx = 2<br />
R n R∫<br />
n ∫ ∫<br />
∫<br />
v ∂ t v − εv ∆v dx<br />
R n<br />
= 2 v g dx ≤<br />
R n v 2 dx +<br />
R n g 2 dx,<br />
R n<br />
∫ t<br />
∫ t<br />
‖v(t)‖ 2 L ≤ ‖v 0‖ 2 2 L + ‖g(s)‖ 2 2 L ds + ‖v(s)‖ 2 2 L ds. 2<br />
Nach <strong>der</strong> Gronwallschen Ungleichung erhalten wir daraus<br />
( ∫ t<br />
)<br />
‖v(t)‖ 2 L ≤ C ‖v 2 0 ‖ 2 L + ‖g(s)‖ 2 2 L ds . 2<br />
0<br />
Testen mit ∂ t v ergibt<br />
∫<br />
2(∂ t v) 2 + ε d ∫ ∫<br />
|∇v| 2 dx ≤ 2(∂ t v) 2 + 2ε∇v · ∂ t ∇v dx<br />
R dt<br />
n R n R∫<br />
n ∫<br />
= 2 ∂ t v (∂ t v − ε∆v) dx = 2 ∂ t v g dx<br />
∫<br />
R n ∫<br />
R n<br />
≤ (∂ t v) 2 dx + g 2 dx,<br />
R n R n<br />
so dass<br />
‖∇v(t)‖ 2 L ≤ ‖∇v 0‖ 2 2 L + 1 ‖g(s)‖ 2 2 L<br />
ε<br />
ds 2 0<br />
gilt. Beachte, dass die letzte Abschätzung dann auch<br />
∫ T<br />
(<br />
‖∂ t v(t)‖ 2 L ≤ C ‖∇v 2 0 ‖ 2 L + 1 ∫ T<br />
)<br />
‖g(s)‖ 2 2 L<br />
ε<br />
ds 2<br />
0<br />
zeigt. Zus<strong>am</strong>mengefasst haben wir<br />
‖v(t)‖ 2 L ∞ (0,T;H 1 (R n )) + ‖∂ tv‖ 2 L 2 (0,T;L 2 (R n )) ≤ C (‖v 0 ‖ 2 H 1 + 1 ε ‖g‖2 L 2 (R n ×(0,T))<br />
0<br />
∫ t<br />
0<br />
0<br />
)<br />
39
ewiesen.<br />
Für allgemeine v 0 und g approximiere nun v 0k → v 0 in H 1 bzw. g k → g<br />
in L 2 mit k → ∞. Nach den gerade gezeigten Ungleichungen konvergieren die<br />
entsprechenden Lösungen dann (nach Übergang zu einer Teilfolge) gegen eine<br />
Lösung mit Startbedingung v 0 und rechter Seite g, die ebenfalls <strong>der</strong> zu zeigenden<br />
Abschätzung genügt. Beachte, dass wegen ε∆v k = −g k + ∂ t v k auch<br />
∑<br />
∫<br />
(∂ ij v k ) 2 = −<br />
∑ ∫<br />
∂ i v k ∂ ijj v k = ∑ ∫ ∫<br />
∂ ii v k ∂ jj v k = (∆v k ) 2<br />
R n R n R n R n<br />
1≤i,j≤n<br />
1≤i,j≤n<br />
1≤i,j≤n<br />
beschränkt in L 2 (0, T) ist, so dass tatsächlich v k ⇀ v in L 2 (0, T; H 2 (R n )) konvergiert.<br />
Ist nun v 0 ∈ H 2 , g ∈ L 2 (0, T; H 1 ), so erhalten wir – zunächst für glatte v 0 und<br />
g –, dass ∂ i v <strong>der</strong> Gleichung<br />
{<br />
∂ t (∂ i v) − ε∆(∂ i v) = ∂ i g in R n × (0, T),<br />
(∂ i v)(·, 0) = ∂ i v 0 auf R n × {0}<br />
genügt. Wie eben folgt durch Approximation dann ∂ i v ∈ L 2 (0, T; H 2 (R n )), ∂ t (∂ i v) ∈<br />
L 2 (0, T; L 2 (R n )), also v ∈ L 2 (0, T; H 3 (R n )), ∂ t v ∈ L 2 (0, T; H 1 (R n )).<br />
Falls sogar v 0 ∈ H 3 (R n ) und g ∈ L 2 (0, T; H 2 (R n )) mit g ′ ∈ L 2 (0, T; L 2 (R n ))<br />
gilt, so zeigt ein ähnliches Argument, dass ∆v ∈ L 2 (0, T; H 2 (R n )), ∂ t (∆v) ∈<br />
L 2 (0, T; L 2 (R n )) und d<strong>am</strong>it ∂ t v = g − ε∆v ∈ L 2 (0, T; H 2 (R n )) und ∂t 2v = ∂ t(g −<br />
ε∆v) ∈ L 2 (0, T; L 2 (R n )) gilt.<br />
□<br />
Beweis von Satz 2.45. Setze X = L ∞ (0, T; H 1 (R n , R m )). Für jedes v ∈ X gibt<br />
es nach Lemma 2.46 eine Lösung F(v) := u ∈ X des Problems<br />
{<br />
∂ t u − ε∆u = − ∑ j B j ∂ j v + f in R n × (0, T),<br />
so dass<br />
u(·, 0) = u 0ε := η ε ∗ u 0 auf R n × {0},<br />
‖F(v 1 ) − F(v 2 )‖ 2 X = ‖F(v 1 − v 2 )‖ 2 X<br />
≤ C ε<br />
∫ T<br />
ist, da u := F(v 1 ) − F(v 2 ) die Gleichung<br />
{<br />
∂ t u − ε∆u = − ∑ j B j ∂ j (v 1 − v 2 )<br />
0<br />
‖∇(v 1 − v 2 )‖ 2 CT<br />
L2 dt ≤<br />
ε ‖v 1 − v 2 ‖ 2 X<br />
in R n × (0, T),<br />
u(·, 0) = 0 auf R n × {0}<br />
löst. Ist also T ≤ ˜T mit ˜T = ε , so ist F eine Kontraktion auf X. Aus dem<br />
2C<br />
Banachschen Fixpunktsatz folgt dann, dass F einen Fixpunkt u ε hat.<br />
40
Für allgemeines T > ˜T zerlegen wir das Intervall [0, T] = [0, ˜T] ∪ [ ˜T, 2 ˜T] ∪<br />
. . . ∪ [⌊ T˜T ⌋ ˜T, T] und iterieren das Argument auf den einzelnen Intervallen.<br />
Mit u ε ∈ X schließlich ist ∑ j B j∂ j u ε ∈ L 2 (R n × (0, T)), so dass nach Lemma<br />
2.46 u ε ∈ L 2 (0, T; H 2 (R n )) gilt. Dann aber ist sogar ∑ j B j∂ j u ε ∈ L 2 (0, T; H 1 (R n ))<br />
und aus Lemma 2.46 ergibt sich u ε ∈ L 2 (0, T; H 3 (R n )), u ′ ε ∈ L2 (0, T; H 1 (R n )). □<br />
Um gleich zum Limes ε → 0 verschwinden<strong>der</strong> Viskosität übergehen zu können,<br />
müssen wir zunächst wie<strong>der</strong> ‘a priori-Abschätzungen’ an die approximativen<br />
Lösungen beweisen.<br />
Satz 2.47 Sei u ε die Lösung von (2.21) aus Satz 2.45. Es existiert eine von ε<br />
unabhängige Konstante C, so dass<br />
(<br />
‖uε (t)‖ H 1 (R n ) + ‖u ′ ε (t)‖ ) ( )<br />
L 2 (R n ) ≤ C ‖u0 ‖ H 1 (R n ) + ‖f‖ H 1 (R n ×(0,T)) .<br />
max<br />
0≤t≤T<br />
Beweis. Es gilt<br />
(<br />
d ( )<br />
‖uε (t)‖ 2 L =<br />
dt<br />
2 2(uε (t), u ′ ε (t)) = 2 u ε (t), f(t) + ε∆u ε (t) − ∑ j<br />
B j (t)∂ j u ε (t)<br />
)<br />
für fast alle t, wobei 2|(u ε (t), f(t))| ≤ ‖u ε (t)‖ 2 L<br />
+‖f(t)‖ 2 2 L<br />
ist, 2(u 2 ε (t), ε∆u ε (t)) =<br />
−ε‖∇u ε (t)‖ L 2 ≤ 0 sowie 2|(u ε (t), ∑ j B j(t)∂ j u ε (t))| ≤ C‖u ε (t)‖ 2 L<br />
. Hierbei ergibt<br />
2<br />
sich die letzte Abschätzung aus<br />
(<br />
v, ∑ )<br />
B j ∂ j v = ∑ ∫<br />
(B j ∂ j v) · v = ∑ ∫<br />
1( (Bj ∂ j v) · v + (∂ j v) · (B j v) )<br />
j<br />
j R n j R 2 n<br />
= 1 ∑<br />
∫<br />
(<br />
∂ j (Bj v) · v ) − 1 ∑<br />
∫ ( ) ∂Bj<br />
v · v<br />
2 R 2<br />
n R ∂x n j<br />
j<br />
mit ∫ R n ∂ j ((B j v) · v) = 0 für v ∈ C ∞ c (Rn ; R n ) und Approximation. (Beachte, dass<br />
wir hier auch B j = B T j ausgenutzt haben.)<br />
D<strong>am</strong>it ist aber<br />
∫ t<br />
∫ t<br />
‖u ε (t)‖ 2 L ≤ ‖u 0ε‖ 2 2 L + ‖f(s)‖ 2 2 L ds + C ‖u 2 ε (s)‖ 2 L ds. 2<br />
Die Gronwallsche Ungleichung ergibt nun<br />
‖u ε (t)‖ 2 L 2 ≤ C (<br />
wobei ‖u 0ε ‖ L 2 ≤ ‖u 0 ‖ L 2 ist.<br />
0<br />
‖u 0ε ‖ 2 L 2 + ∫ t<br />
0<br />
j<br />
0<br />
‖f(s)‖ 2 L 2 ds )<br />
,<br />
41
Die nächste Abschätzung erhalten wir durch Differentiation <strong>der</strong> Gleichung<br />
(2.21) nach x k :<br />
{<br />
∂ t (∂ k u ε ) − ε∆(∂ k u ε ) + ∑ j B j∂ j (∂ k u ε ) = ∂ k f − ∑ j (∂ kB j )∂ j u ε in R n × (0, T),<br />
∂ k u ε (·, 0) = ∂ k u 0ε := η ε ∗ ∂ k u 0 auf R n × {0},<br />
(Beachte, dass u ε ∈ L 2 (0, T; H 3 (R n )), ∂ t u ε ∈ L 2 (0, T; H 1 (R n )) und insbeson<strong>der</strong>e<br />
u ε ∈ C([0, T]; H 1 (R n )) gilt.) Das gleiche Argument wie eben liefert nun<br />
( ∫ t<br />
∫ t<br />
)<br />
‖∂ k u ε (t)‖ 2 L ≤ C ‖∂ 2 k u 0ε ‖ 2 L + ‖∂ 2 k f(s)‖ 2 L ds + ‖∇u 2 ε (t)‖ 2 L ds . 2<br />
0<br />
(Die linke Seite <strong>der</strong> PDG für ∂ k u ε ist wie die linke Seite <strong>der</strong> PDG für u ε , nur die<br />
Daten än<strong>der</strong>n sich: Aus <strong>der</strong> rechten Seite f wird ∂ k f − ∑ j (∂ kB j )∂ j u ε und aus<br />
<strong>der</strong> Anfangsbedingung u 0ε wird ∂ k u 0ε .) Summation über k und eine abermalige<br />
Anwendung <strong>der</strong> Gronwallschen Ungleichung ergibt<br />
‖∇u ε (t)‖ 2 L 2 ≤ C (<br />
‖∇u 0ε ‖ 2 L 2 + ∫ t<br />
0<br />
0<br />
‖∇f(s)‖ 2 L 2 ds )<br />
.<br />
wobei ‖∇u 0ε ‖ L 2 ≤ ‖∇u 0 ‖ L 2 ist.<br />
Um schließlich ∂ t u ε abzuschätzen, nehmen wir zunächst an, dass f glatt ist,<br />
so dass nach Satz 2.45 für g = f − ∑ j B j∂ j u ε gilt g ∈ L 2 (0, T; H 2 (R n )) und g ′ ∈<br />
L 2 (0, T; L 2 (R n )). Nach (2.21) und Lemma 2.46 ist dann ∂ t u ε ∈ L 2 (0, T; H 2 (R n ))<br />
und ∂t 2 u ε ∈ L 2 (0, T; L 2 (R n )) und wir dürfen (2.21) nach t differenzieren:<br />
{<br />
∂ t (∂ t u ε ) − ε∆(∂ t u ε ) + ∑ j B j∂ j (∂ t u ε ) = ∂ t f − ∑ j (∂ tB j )∂ j u ε in R n × (0, T),<br />
∂ t u ε (·, 0) = ε∆u 0ε − ∑ j B j(0)∂ j u 0ε + f(0) auf R n × {0}.<br />
(Beachte, dass ∂ t u ε , ∆u ε , ∑ j B j∂ j u ε , f ∈ C([0, T]; L 2 (R n )).) Wie zuvor erhalten<br />
wir daraus<br />
(∥ ∥∥∥∥<br />
‖∂ t u ε (t)‖ 2 L ≤ C ε∆u 2 0ε − ∑ 2<br />
B j (0)∂ j u 0ε + f(0)<br />
∥<br />
j<br />
L<br />
∫ 2<br />
t<br />
∫ )<br />
t<br />
+ ‖∂ t f(s)‖ 2 L ds + ‖∇u 2 ε (t)‖ 2 L ds 2<br />
≤ C<br />
(<br />
0<br />
ε 2 ‖∆u 0ε ‖ 2 L 2 + ‖∇u 0ε‖ 2 L 2 + ‖f(0)‖2 L 2<br />
+<br />
∫ t<br />
nach den schon gezeigten Abschätzungen für ∇u ε .<br />
0<br />
∫ )<br />
t<br />
‖∂ t f(s)‖ 2 L ds + ‖f(s)‖ 2 2 L ds 2<br />
42<br />
0<br />
0
Nun ist ‖∆u 0ε ‖ 2 L<br />
= ‖ ∑ 2 j (∂ jη ε ) ∗ ∂ j u 0 ‖ 2 L<br />
≤ C ‖∇u 2 ε 2 0 ‖ 2 L<br />
und ‖f(0)‖ 2 2 L<br />
≤ 2<br />
C‖f‖ 2 H 1 (R n ×(0,T))<br />
nach dem Spursatz. Es folgt<br />
( ∫ t<br />
)<br />
‖∂ t u ε (t)‖ 2 L ≤ C ‖∇u 2 0 ‖ 2 L + ‖∂ 2 t f(s)‖ 2 L + 2 ‖f(s)‖2 L ds . 2<br />
Zus<strong>am</strong>men mit den schon gezeigten Abschätzungen ergibt sich die Behauptung.<br />
□<br />
Wir können nun das Hauptergebnis dieses Abschnitts über die Existenz und<br />
Eindeutigkeit schwacher Lösungen von symmetrischen hyperbolischen Systemen<br />
beweisen.<br />
Beweis von Satz 2.44. Sei u ε die Lösung von (2.21) aus Satz 2.45. Nach Satz<br />
2.47 existiert u ∈ L 2 (0, T, H 1 (R n ; R m )) mit u ′ ∈ L 2 (0, T, L 2 (R n ; R m )), so dass<br />
(für eine Teilfolge)<br />
u ε ⇀ u in L 2 (0, T, H 1 (R n ; R m )) und u ′ ε ⇀ u ′ in L 2 (0, T, L 2 (R n ; R m )).<br />
Nach Satz 2.47 erfüllt dann u die Abschätzung<br />
( ) ( )<br />
ess sup ‖u(t)‖H 1 (R n ) + ‖u ′ (t)‖ L 2 (R n ) ≤ C ‖u0 ‖ H 1 (R n ) + ‖f‖ H 1 (R n ×(0,T)) ,<br />
0≤t≤T<br />
denn die Menge <strong>der</strong> Funktionen, die dieser Abschätzung genügen, ist konvex und<br />
abgeschlossen bezüglich starker Konvergenz.<br />
Sei nun ϕ ∈ C 1 ([0, T]) mit ϕ(T) = 0, v ∈ H 1 (R n ; R m ). Dann ist<br />
∫ T<br />
0<br />
∫ T<br />
=<br />
0<br />
n∑<br />
(u ′ ε (t), v)ϕ(t) + ε (∂ i u ε (t), ∂ i v)ϕ(t) + B(u ε (t), v, t)ϕ(t) dt<br />
0<br />
(f(t), v)ϕ(t) dt.<br />
<strong>Partielle</strong> Integration liefert nun<br />
−<br />
=<br />
∫ T<br />
0<br />
∫ T<br />
0<br />
(u ε (t), v)ϕ ′ (t) + ε<br />
i=1<br />
n∑<br />
(∂ i u ε (t), ∂ i v)ϕ(t) + B(u ε (t), v, t)ϕ(t) dt<br />
i=1<br />
(f(t), v)ϕ(t) dt + (u ε0 , v)ϕ(0).<br />
Im Limes ε → 0 ergibt sich aus den beiden letzten Gleichungen<br />
bzw.<br />
−<br />
∫ T<br />
0<br />
∫ T<br />
0<br />
(u ′ (t), v)ϕ(t) + B(u(t), v, t)ϕ(t) dt =<br />
(u(t), v)ϕ ′ (t) + B(u(t), v, t)ϕ(t) dt =<br />
∫ T<br />
0<br />
∫ T<br />
0<br />
(f(t), v)ϕ(t) dt. (2.22)<br />
(f(t), v)ϕ(t) dt + (u 0 , v)ϕ(0).<br />
43
Integriert man ∫ T<br />
0 (u′ (t), v)ϕ(t) dt in (2.22) partiell, so zeigt ein Vergleich dieser<br />
beiden Gleichungen, dass in <strong>der</strong> Tat u(0) = u 0 ist. Des Weiteren erhalten wir aus<br />
(2.22)<br />
(u ′ (t), v) + B(u(t), v, t) = (f(t), v) (2.23)<br />
für fast alle t. Es gibt also eine Nullmenge N ⊂ [0, T], so dass (2.23) für alle<br />
t /∈ N und alle v aus einer abzählbaren dichten Teilmenge von H 1 (R n ; R m ) gilt.<br />
Aus Stetigkeitsgünden gilt dann (2.23) sogar für alle v ∈ H 1 (R n ; R m ) und t ∈<br />
[0, T] \ N.<br />
Es bleibt, die Eindeutigkeit <strong>der</strong> Lösung zu begründen. Die Differenz u zweier<br />
Lösungen ist eine Lösung zu den Daten u 0 = 0 und f = 0, so dass inbeson<strong>der</strong>e<br />
(u ′ (t), u(t)) + B(u(t), u(t), t) = 0 f.f.a. t ∈ [0, T]<br />
gilt. Wie im Beweis von Satz 2.47 folgt daraus<br />
1 d<br />
2 dt ‖u(t)‖ L 2 ≤ C‖u(t)‖ L 2<br />
fast überall, so dass nach <strong>der</strong> Gronwallschen Ungleichung u = 0 ist fast überall.<br />
□<br />
44
Kapitel 3<br />
Die Navier-Stokes-Gleichungen<br />
Dieses Kapitel lässt noch etwas auf sich warten. Sie finden jedoch, was in dieser<br />
VL über Navier-Stokes-Gleichungen besprochen wurde im Wesentlichen in [Te,<br />
Kap. 3, §2 und §4].<br />
45
Kapitel 4<br />
Distributionen<br />
Distributionen sind ‘verallgemeinerte Funktionen’. Während wir bisher Funktionen<br />
und ihre Ableitungen untersucht haben, werden wir den Gegenstand unserer<br />
Untersuchungen nun wesentlich verallgemeinern. Schon in <strong>der</strong> Theorie <strong>der</strong> Sobolevräume<br />
(vgl. Skript PDG 1) haben wir gesehen, dass es von großem Nutzen sein<br />
kann, auch nicht-glatte Funktionen in einem verallgemeinerten Sinne zu differenzieren.<br />
So ist etwa im schwachen Sinne f : R → R, f(x) = |x|, differenzierbar<br />
mit<br />
{<br />
f ′ −1, x < 0,<br />
(x) :=<br />
1, x > 0.<br />
f ′′ ist nun jedoch noch nicht einmal im schwachen Sinne mehr definiert: Es kann<br />
keine L 1 ′′<br />
loc-Funktion g geben, so dass f = g ist, denn g müsste gleich 0 auf<br />
(−∞, 0) und auf (0, ∞) sein, somit g = 0 fast überall. f ′ ist aber nicht konstant.<br />
Um auch solche Funktionen noch differenzieren zu können, müssen wir die<br />
Klasse <strong>der</strong> Funktionen geeignet verallgemeinern: Wir werden die Menge <strong>der</strong> Distributionen<br />
D einführen, <strong>der</strong>en Elemente wir als ‘verallgemeinerte Funktionen’<br />
verstehen. Es wird sich herausstellen, dass f ′′ tatsächlich sinnvoll zu definieren<br />
ist, allerdings nicht als Funktion auf R.<br />
Die wohl wichtigste Eigenschaft einer Distribution ist, dass sie unendlich oft<br />
differenzierbar ist. Aber auch an<strong>der</strong>e auf Funktionen definierte Operationen haben<br />
eine natürliche Entsprechung auf den verallgemeinerten Funktionen, die wir<br />
im Folgenden untersuchen werden.<br />
4.1 Definition und grundlegende Eigenschaften<br />
Ausgangspunkt für die Definition einer verallgemeinerten Funktion auf Ω ⊂ R n<br />
(offen) ist die Beobachtung, dass f ∈ L 1 loc (Ω) durch die Werte<br />
∫<br />
fϕ, ϕ ∈ D(Ω) := Cc ∞ (Ω)<br />
Ω<br />
46
eindeutig festgelegt wird. (In <strong>der</strong> Distributionentheorie wird <strong>der</strong> Raum <strong>der</strong> Testfunktionen<br />
Cc ∞ (Ω) meist mit D(Ω) bezeichnet.)<br />
Beachte, dass ϕ ↦→ ∫ fϕ eine lineare Abbildung von D(Ω) in den Skalarenkörper<br />
K (K = R o<strong>der</strong> C) ist. Wir definieren nun die Menge <strong>der</strong> Distributionen<br />
als die Menge <strong>der</strong> linearen Abbildungen, die einer (sehr milden) Stetigkeitsbedingung<br />
genügen.<br />
Definition 4.1 Sei Ω ⊂ R n offen. Eine Distribution auf Ω ist eine lineare Abbildung<br />
T : D(Ω) → K, so dass gilt: Für jede kompakte Teilmenge K von Ω<br />
existieren C K > 0 und N K ∈ N 0 , so dass<br />
∑<br />
|Tϕ| ≤ C K ‖∂ α ϕ‖ L ∞ (K) ∀ϕ ∈ D(Ω) mit supp ϕ ⊂ K<br />
|α|≤N K<br />
gilt. (Gibt es ein kleinstes N K , welches für alle Kompakta in Ω funktioniert, so<br />
heißt N K die Ordnung von T.) Die Menge <strong>der</strong> Distributionen auf Ω wird mit<br />
D ′ (Ω) bezeichnet.<br />
Beispiele:<br />
1. Jede L 1 loc -Funktion f induziert eine Distribution T f gemäß T f ϕ := ∫ Ω fϕ.<br />
Die Linearität dieser Abbildung ist klar. Außerdem gilt<br />
|Tϕ| ≤ ‖f‖ L 1 (K)‖ϕ‖ L ∞ (K)<br />
für alle ϕ ∈ D(Ω) mit supp ϕ ⊂ K. Insbeson<strong>der</strong>e ist T f von nullter Ordnung.<br />
Wir werden in Zukunft einfach f statt T f schreiben.<br />
2. Jedes Borelmaß µ mit |µ|(K) < ∞ für kompakte K ⊂ Ω ist eine Distribution<br />
nullter Ordnung gemäß ϕ ↦→ ∫ ϕ dµ, denn<br />
(Dies verallgemeinert 1.)<br />
|Tϕ| ≤ |µ|(K)‖ϕ‖ L ∞ (K).<br />
3. Ist x ∈ Ω, so definiert T : D(Ω) → K, Tϕ := ϕ(x) eine Distribution. Dies ist<br />
in <strong>der</strong> Tat gerade T = δ x , wobei δ x das Diracmaß im Punkte x bezeichnet:<br />
{<br />
1, x ∈ A,<br />
δ x (A) =<br />
0, x /∈ A.<br />
Nach 2. ist δ x ∈ D ′ (Ω). Speziell für x = 0 schreibt man auch oft einfach δ<br />
statt δ 0 .<br />
4. Ist Ω = (0, 1) ⊂ R, T : D(Ω) → K definiert durch Tϕ = ∑ ∞ d k ϕ<br />
k=2<br />
ist T ∈ D ′ (Ω). T ist jedoch nicht von endlicher Ordnung.<br />
47<br />
dx k ( 1 k<br />
), so
Definition 4.2 Es seien ϕ, ϕ 1 , ϕ 2 , . . . ∈ D(Ω). Wir sagen (ϕ k ) konvergiert in D(Ω)<br />
gegen ϕ, wenn es ein Kompaktum K ⊂ Ω gibt, so dass supp ϕ k ⊂ K gilt für alle<br />
k ∈ N und ∂ α ϕ k → ∂ α ϕ gleichmäßig auf Ω konvergiert für jeden Multiindex α.<br />
Beachte: Dies definiert eine äußerst starke Konvergenz auf D. Eine Folge konvergiert<br />
nur dann, wenn es ein Kompaktum gibt, außerhalb dessen alle Funktionen<br />
verschwinden, und wenn alle Ableitungen gleichmäßig konvergieren.<br />
Satz 4.3 Eine lineare Abbildung T : D(Ω) → K ist genau dann eine Distribution,<br />
wenn gilt<br />
ϕ k → ϕ in D(Ω) =⇒ Tϕ k → Tϕ in K.<br />
Da die Konvergenz in D(Ω) sehr stark ist, zeigt dieser Satz, dass die Stetigkeitsbedingung<br />
für Distributionen eine sehr schwache Bedingung ist.<br />
Beweis. Sei T ∈ D ′ (Ω), ϕ k → ϕ in D(Ω). Nach Definition existiert ein Kompaktum<br />
K ⊂ Ω, so dass supp ϕ k ⊂ K ist für alle k und ∂ α ϕ k → ∂ α ϕ gleichmäßig auf<br />
Ω konvergiert für jedes α. Dann aber ist auch supp ϕ ⊂ K und<br />
∑<br />
|Tϕ k − Tϕ| ≤ C K<br />
|α|≤N K<br />
‖∂ α (ϕ k − ϕ)‖ L ∞ (K) → 0.<br />
Ist nun umgekehrt T /∈ D ′ (Ω), so gibt es ein Kompaktum K ⊂ Ω, so dass zu<br />
jedem k ∈ N eine Testfunktion ϕ k ∈ D(Ω) mit supp ϕ k ⊂ K und<br />
|Tϕ k | ≥ k ∑<br />
‖∂ α ϕ k ‖ L ∞<br />
|α|≤k<br />
existiert. Nach Multiplikation mit einem geeignetem Skalar können wir o.B.d.A.<br />
|Tϕ k | = 1 für alle k annehmen. Dann aber folgt ∂ α ϕ k → 0 gleichmäßig für jedes<br />
α und d<strong>am</strong>it ϕ k → 0 in D(Ω). Wegen |Tϕ k | = 1 für alle k gilt jedoch nicht<br />
Tϕ k → 0 = T0.<br />
□<br />
Definition 4.4 Wir sagen eine Folge von Distributionen T n konvergiert in D ′ (Ω)<br />
gegen eine Distribution T, wenn T n ϕ → Tϕ in K konvergiert für alle ϕ ∈ D(Ω).<br />
Beispiel: Ist η ε , ε > 0, <strong>der</strong> skalierte Standardglättungskern, so gilt η ε → δ in<br />
D ′ (R n ) mit ε → 0. (Beachte η ε (ϕ) = ∫ η ε (x)ϕ(x) dx = η ε ∗ ϕ(0) → ϕ(0) für<br />
ϕ ∈ D(R n ).)<br />
Um die Definition <strong>der</strong> Ableitung einer Distribution zu motivieren, überlegen<br />
wir zunächst, wie die Ableitung ∂ α einer (schwach) differenzierbaren Funktion<br />
f : Ω → K als Distribution wirkt: Für alle ϕ ∈ D(Ω) ist<br />
∫<br />
∫<br />
∂ α f ϕ = (−1) |α| f ∂ α ϕ.<br />
Wir definieren daher:<br />
Ω<br />
48<br />
Ω
Definition 4.5 Ist T ∈ D ′ (Ω), α ein Multiindex, so wird durch<br />
∂ α T(ϕ) := (−1) |α| T(∂ α ϕ)<br />
∀ ϕ ∈ D(Ω)<br />
eine Distribution ∂ α T definiert.<br />
Beachte, dass ϕ k → ϕ in D(Ω) impliziert ∂ α ϕ k → ∂ α ϕ in D(Ω), so dass die<br />
Ableitung ∂ α T tatsächlich wohldefiniert ist. Ist u ∈ C m (Ω) o<strong>der</strong> u ∈ W m,1<br />
loc (Ω),<br />
|α| = m, so ist die distributionelle Ableitung offenbar gerade die klassische bzw.<br />
schwache Ableitung von u.<br />
Beispiele:<br />
1. Die Heavysidefunktion H : R → R,<br />
H(x) =<br />
{<br />
1, x > 0,<br />
0, x < 0,<br />
ist lokal integrierbar und also eine Distribution auf R. Für Testfunktionen<br />
ϕ ist<br />
∫<br />
∫ ∞<br />
H ′ (ϕ) = − H(x)ϕ ′ (x) dx = − ϕ ′ (x) dx = ϕ(0) = δ(ϕ).<br />
R<br />
Dies zeigt H ′ = δ.<br />
2. Die Ableitungen <strong>der</strong> Deltadistribution sind gerade die Auswertungsfunktionale<br />
<strong>der</strong> Ableitungen: Für Testfunktionen ϕ ist<br />
∂ α δ(ϕ) = (−1) |α| δ(∂ α ϕ) = (−1) |α| ∂ α ϕ(0).<br />
3. Sei T = log | · |. Dann ist T ∈ L 1 loc (R) und also eine Distribution. Der<br />
kanonische Kandidat für die Ableitung ist x ↦→ 1 . Dies ist jedoch nicht lokal<br />
x<br />
integrierbar und somit nicht offensichtlich als Distribution zu interpretieren.<br />
An<strong>der</strong>erseits muss die distributionelle Ableitung ja existieren. Was also ist<br />
T ′ <br />
Sei ϕ ∈ D(R). <strong>Partielle</strong> Integration liefert<br />
∫<br />
T ′ (ϕ) = −T(ϕ ′ ) = − log |x| ϕ ′ (x) dx<br />
R<br />
∫<br />
∫<br />
= − log |x| ϕ ′ (x) dx + log ε ϕ(ε) − log ε ϕ(−ε) +<br />
{|x|≤ε}<br />
0<br />
{|x|>ε}<br />
ϕ(x)<br />
x dx<br />
für ε > 0. Nun ist ∫ {|x|≤ε} log |x| ϕ′ (x) dx → 0 wegen log | · | ∈ L 1 loc und<br />
log ε (ϕ(ε) − ϕ(−ε)) = 2ε log ε ϕ(ε)−ϕ(−ε)<br />
2ε<br />
T ′ ϕ(x)<br />
(ϕ) = lim<br />
εց0<br />
∫{|x|>ε} x dx.<br />
→ 0 · ϕ ′ (0) = 0 für ε → 0. Es folgt<br />
49
Man schreibt T ′ = HW 1 x und nennt HW 1 x den Hauptwert1 von 1 x .<br />
Definition 4.6 Es sei U ⊂ Ω offen.<br />
(i) Sind S, T ∈ D ′ (Ω), so ist S = T auf U, wenn Sϕ = Tϕ gilt für alle ϕ ∈<br />
D(Ω) mit supp ϕ ⊂ U.<br />
(ii) Der Träger einer Distribution T ∈ D ′ (Ω) ist definiert als<br />
supp T := Ω \ ⋃ {U ⊂ Ω : U ist offen und T = 0 auf U}.<br />
Es ist nicht schwer zu zeigen, dass T = S auf einer offenen Menge U ⊂ Ω<br />
genau dann gilt, wenn es zu jedem x ∈ U eine Umgebung U(x) gibt, so dass<br />
T = S auf U(x) ist. Dies impliziert insbeson<strong>der</strong>e, dass supp T = Ω \U gilt, wobei<br />
U die größte offene Menge ist, auf <strong>der</strong> T = 0 gilt.<br />
Beispiel: supp δ = {0}.<br />
Setze E ′ (Ω) := {T ∈ D ′ (Ω) : supp T ist kompakt}. Ist T ∈ E ′ (Ω), wähle<br />
ψ ∈ D(Ω) mit ψ ≡ 1 auf einer Umgebung von supp T. Dann ist Tϕ = T(ψϕ) für<br />
alle ϕ ∈ D(Ω) und somit<br />
∑<br />
|Tϕ| ≤ C K ‖∂ α (ψϕ)‖ L ∞ (K)<br />
|α|≤N K<br />
für K = supp ψ. Mit Hilfe <strong>der</strong> Leibniz-Regel folgt nun<br />
|Tϕ| ≤ C ∑<br />
|α|≤N K<br />
‖∂ α ϕ‖ L ∞ (K);<br />
T ist also von endlicher Ordnung.<br />
Gemäß ϕ ↦→ T(ψϕ) können wir T zu einer Abbildung T : E(Ω) := C ∞ (Ω) →<br />
K fortsetzen. Diese Fortsetzung ist unabhängig von <strong>der</strong> speziellen Wahl von ψ.<br />
Unter <strong>der</strong> Bedingung, dass<br />
Tϕ = 0 für alle ϕ ∈ E(Ω) mit supp ϕ ∩ supp T = ∅<br />
gilt, ist die Fortsetzung sogar eindeutig, denn ist ˜T eine weitere Fortsetzung, die<br />
dieser Bedingung genügt, so gilt<br />
˜Tϕ = ˜T(ψϕ) + ˜T((1 − ψ)ϕ) = ˜T(ψϕ) = T(ψϕ) = Tϕ ∀ϕ ∈ E(Ω).<br />
Die Menge <strong>der</strong> Distributionen ist zwar offensichtlich ein Vektorraum, das Produkt<br />
zweier Distributionen kann jedoch im Allgemeinen nicht sinnvoll definiert<br />
werden. Die Multiplikation einer Distribution mit einer glatten Funktion ist aber<br />
1 englisch: PV 1 x <strong>der</strong> principal value of 1 x<br />
50
möglich. Zur Motivation betrachten wir wie<strong>der</strong> f ∈ L 1 loc (Ω). Ist ψ ∈ C∞ (Ω), so<br />
gilt<br />
∫ ∫<br />
(ψf)ϕ = f(ψϕ) ∀ ϕ ∈ D(Ω).<br />
Wir definieren daher<br />
Ω Ω<br />
Definition 4.7 Ist ψ ∈ C ∞ (Ω), T ∈ D ′ (Ω), so wird durch<br />
(ψT)(ϕ) = T(ψϕ)<br />
∀ ϕ ∈ D(Ω)<br />
eine Distribution ψT ∈ D ′ (Ω) definiert.<br />
Beachte, dass dies wohldefiniert ist: Mit <strong>der</strong> Leibniz-Regel sieht man, dass<br />
ϕ k → ϕ in D(Ω) ψϕ k → ψϕ in D(Ω) impliziert.<br />
Lemma 4.8 (Produktregel) Ist ψ ∈ C ∞ (Ω), T ∈ D ′ (Ω), so ist<br />
Beweis. Für ϕ ∈ D(Ω) ist<br />
∂ i (ψT) = (∂ i ψ)T + ψ(∂ i T).<br />
∂ i (ψT)(ϕ) = −ψT(∂ i ϕ) = −T(ψ ∂ i ϕ) = −T(∂ i (ψϕ) − (∂ i ψ)ϕ)<br />
= (∂ i T)(ψϕ) + T((∂ i ψ)ϕ) = ψ∂ i T(ϕ) + (∂ i ψ)T(ϕ).<br />
□<br />
Dieses Schema wird uns nun beim Aufbau <strong>der</strong> Distributionentheorie immer<br />
wie<strong>der</strong> begegnen. Motiviert durch schon bekannte Operationen auf gewöhnlichen<br />
Funktionen definieren wir Operationen ‘durch Dualität’, indem wir die Operationen<br />
durch ihr Wirken auf Testfunktionen beschreiben. Die Beweise von Aussagen<br />
über Distributionen benutzen dann typischer Weise gerade die entsprechenden<br />
(schon bekannten) Aussagen über Testfunktionen.<br />
Bevor wir die Theorie mit dieser Methode weiter ausbauen, untersuchen wir<br />
noch den Zus<strong>am</strong>menhang von distributionellen und klassischen Ableitungen.<br />
Satz 4.9 Es seien u, ∂ α u ∈ C(Ω) für alle |α| ≤ k, wobei ∂ α u die distributionelle<br />
Ableitung bezeichnet. Dann ist u ∈ C k (Ω).<br />
Beweis. O.B.d.A. ist |α| = 1, etwa α = e j , e j <strong>der</strong> j-te Einheitsvektor. Der allgemeine<br />
Fall ergibt sich hieraus durch Induktion. Zu x 0 ∈ Ω beliebig betrachte das<br />
Segment K = [x 0 − t 0 e j , x 0 + t 0 e j ], wobei t 0 > 0 so klein sei, dass K ⊂ Ω ist.<br />
Sei η ε <strong>der</strong> skalierte Standardglättungskern. Dann gilt für u ε := η ε ∗ u auf einer<br />
Umgebung von K für hinreichend kleine ε<br />
∫<br />
∂ j u ε (x) = (∂ j η ε ) ∗ u(x) = (∂ j η ε )(x − y)u(y) dy<br />
∫ ∫<br />
∂ηε<br />
= − (x − y)u(y) dy = η ε (x − y)∂ j u(y) dy,<br />
∂y j<br />
51
denn η ε (x − ·) ∈ D(Ω). Dies zeigt ∂ j u ε = η ε ∗ ∂ j u in einer Umgebung von K und<br />
somit<br />
u ε (x 0 + te j ) = u ε (x 0 ) +<br />
∫ t<br />
0<br />
(η ε ∗ ∂ j u)(x 0 + se j ) ds<br />
für |t| < t 0 . Da u ε → u und η ε ∗ ∂ j u → ∂ j u gleichmäßig auf K konvergieren für<br />
ε → 0, folgt<br />
u(x 0 + te j ) = u(x 0 ) +<br />
Daraus folgt nun die Behauptung.<br />
∫ t<br />
0<br />
∂ j u(x 0 + se j ) ds.<br />
□<br />
4.2 Faltung und Fund<strong>am</strong>entallösungen<br />
Im folgenden vorbereitenden Lemma fassen wir einige (zum Teil schon bekannte)<br />
Aussagen über die Faltung zweier Testfunktionen zus<strong>am</strong>men.<br />
Lemma 4.10 Es seien ϕ, χ, ψ ∈ D(R n ). Dann gilt<br />
(i) ϕ ∗ ψ = ψ ∗ ϕ ∈ D(R n ),<br />
(ii) ∂ α (ϕ ∗ ψ) = (∂ α ϕ) ∗ ψ = ϕ ∗ (∂ α ψ),<br />
(iii) supp(ϕ ∗ ψ) ⊂ supp ϕ + supp ψ,<br />
(iv) (ϕ ∗ χ) ∗ ψ = ϕ ∗ (χ ∗ ψ) und<br />
(v) ∫ R n (ϕ ∗ ψ)χ = ∫ R n ψ(χ ∗ ˇϕ), wobei ˇϕ(x) := ϕ(−x).<br />
Beweis. (ii) und die Tatsache, dass ϕ, ψ ∈ D(R n ) =⇒ ϕ ∗ ψ = ψ ∗ ϕ ∈ C ∞ (R n )<br />
gilt, sind bereits bekannt (vgl. Skript PDG 1).<br />
Es kann<br />
∫<br />
∫<br />
ϕ ∗ ψ(x) = ϕ(x − y)ψ(y) dy = ϕ(x − y)ψ(y) dy ≠ 0<br />
R n supp ψ<br />
nur dann sein, wenn ein y ∈ supp ψ existiert, so dass x − y ∈ supp ϕ ist, wenn<br />
also x ∈ supp ψ + supp ϕ gilt. Dies zeigt (iii), da supp ψ + supp ϕ kompakt ist,<br />
und beendet auch den Beweis von (i).<br />
(iv) ergibt sich aus<br />
∫ ∫<br />
(ϕ ∗ χ) ∗ ψ(x) = ϕ(x − y − z)χ(z) dz ψ(y) dy<br />
∫ ∫<br />
= ϕ(x − y)χ(z)ψ(y − z) dz dy<br />
∫<br />
= ϕ(x − y)(χ ∗ ψ)(y) dy<br />
= ϕ ∗ (χ ∗ ψ)(x),<br />
52
wobei wir die Substitution y → y − z und (i) ausgenutzt haben. Beachte dabei,<br />
dass alle beteiligten Funktionen kompakten Träger haben.<br />
Die Formel aus (v) schließlich folgt aus<br />
∫<br />
∫ ∫<br />
(ϕ ∗ ψ)(x)χ(x) dx = ϕ(x − y)ψ(y) dy χ(x) dx<br />
∫ ∫<br />
∫<br />
= ˇϕ(y − x)χ(x) dxψ(y) dy = ψ(y)(χ ∗ ˇϕ)(y) dy.<br />
Durch Lemma 4.10(v) motiviert definieren wir:<br />
□<br />
Definition 4.11 Es sei ϕ ∈ D(R n ), T ∈ D ′ (R n ). Die Faltung von ϕ und T ist<br />
definiert durch ϕ ∗ T ∈ D ′ (R n ),<br />
ϕ ∗ T(χ) := T(χ ∗ ˇϕ) ∀ χ ∈ D(R n ).<br />
(Beachte χ, ϕ ∈ D(R n ) =⇒ χ ∗ ˇϕ ∈ D(R n ).) Dies ist in <strong>der</strong> Tat wohldefiniert,<br />
denn wenn χ k → χ in D(R n ), dann gibt es einerseits ein Kompaktum K, so dass<br />
supp χ k ⊂ K gilt für alle k, so dass supp χ k ∗ ˇϕ ⊂ ˜K := K + supp ˇϕ gilt, und<br />
an<strong>der</strong>erseits ist<br />
‖∂ α (χ k ∗ ˇϕ) − ∂ α (χ ∗ ˇϕ)‖ L ∞ = ‖(∂ α χ k − ∂ α χ) ∗ ˇϕ‖ L ∞<br />
≤ ‖ˇϕ‖ L 1‖∂ α χ k − ∂ α χ‖ L ∞ → 0<br />
nach <strong>der</strong> Youngschen Ungleichung, so dass also χ k ∗ ˇϕ → χ ∗ ˇϕ in D(R n ) gilt.<br />
Beispiel: Die Diracdistribution δ ist neutral bezüglich <strong>der</strong> Faltung: Für alle ϕ, χ ∈<br />
D(R n ) gilt<br />
∫<br />
∫<br />
ϕ ∗ δ(χ) = δ(χ ∗ ˇϕ) = χ ∗ ˇϕ(0) = ˇϕ(0 − y)χ(y) dy = ϕ(y)χ(y) dy,<br />
d.h. als Distribution ist ϕ ∗ δ = ϕ.<br />
Lemma 4.12 Es seien ϕ, ψ ∈ D(R n ), T ∈ D ′ (R n ). Dann gilt<br />
(i) ∂ α (ϕ ∗ T) = (∂ α ϕ) ∗ T = ϕ ∗ (∂ α T).<br />
(ii) ϕ ∗ (ψ ∗ T) = (ϕ ∗ ψ) ∗ T.<br />
Beweis. (i) Für alle χ ∈ D(R n ) gilt<br />
∂ α (ϕ ∗ T)(χ) = (−1) |α| ϕ ∗ T(∂ α χ) = (−1) |α| T((∂ α χ) ∗ ˇϕ)<br />
{<br />
(−1) |α| T(∂ α (χ ∗ ˇϕ)) = ∂ α T(χ ∗ ˇϕ) = ϕ ∗ ∂ α T(χ) bzw.<br />
=<br />
(−1) |α| ̂<br />
T(χ ∗ (∂ α ˇϕ)) = T(χ ∗ ( ∂ α ϕ)) = (∂ α ϕ) ∗ T(χ).<br />
53
(ii) Beachte zunächst, dass<br />
∫<br />
∫<br />
ˇϕ ∗ ˇψ(x) = ˇϕ(x − y) ˇψ(y) dy = ϕ(−x + y)ψ(−y) dy<br />
∫<br />
̂<br />
= ϕ(−x − y)ψ(y) dy = ϕ ∗ ψ(x)<br />
gilt. D<strong>am</strong>it ergibt sich nun für alle χ ∈ D(R n )<br />
ϕ ∗ (ψ ∗ T)(χ) = ψ ∗ T(χ ∗ ˇϕ) = T((χ ∗ ˇϕ) ∗ ˇψ)<br />
̂<br />
= T(χ ∗ ( ϕ ∗ ψ)) = (ϕ ∗ ψ) ∗ T(χ).<br />
Bevor wir weitere Operationen auf D einführen, besprechen wir eine wichtige<br />
Anwendung.<br />
Definition 4.13 Es sei L ein linearer partieller Differentialoperator mit konstanten<br />
Koeffizienten. Eine Fund<strong>am</strong>entallösung von L ist eine Distribution E ∈<br />
D ′ (R n ) mit LE = δ.<br />
Fund<strong>am</strong>entallösungen sind deshalb so nützlich, weil man aus ihnen auch Lösungen<br />
für allgemeinere rechte Seiten f konstruieren kann:<br />
Satz 4.14 Es sei L ein linearer partieller Differentialoperator mit konstanten<br />
Koeffizienten, E eine Fund<strong>am</strong>entallösung von L, f ∈ D(R n ). Dann ist u := f ∗E<br />
eine Lösung von Lu = f.<br />
Beweis. Da L konstante Koeffizienten hat, gilt<br />
Lu = L(f ∗ E) = f ∗ (LE) = f ∗ δ = f.<br />
Wir werden gleich sehen, dass die Faltung einer Testfunktion mit einer Distribution<br />
immer eine glatte Funktion ist(!). Wir haben also tatsächlich eine klassische<br />
Lösung von Lu = f gefunden.<br />
Beispiel: Im Skript PDG 1 hatten wir die (L 1 loc -)Funktion<br />
{<br />
−<br />
1<br />
log |x|, n = 2,<br />
2π<br />
Φ(x) :=<br />
1<br />
n(n−2)ω n<br />
|x| 2−n , n ≥ 3,<br />
die Fund<strong>am</strong>entallösung des Laplace-Operators −∆ genannt (vgl. Skript PDG 1,<br />
Definition 2.13). In <strong>der</strong> Tat gilt<br />
−∆Φ = δ.<br />
54<br />
□<br />
□
Dies beweist man entwe<strong>der</strong> durch Nachrechnen o<strong>der</strong> indem man ausnutzt, dass<br />
für u ∈ C 2 (U), U ⊂ R n offen und beschränkt, die Darstellungsformel<br />
∫<br />
∫<br />
u(x) = − Φ(y − x)∆u(y) dy + Φ(y − x)∂ ν u(y) − u(y)∂ ν Φ(x − y) dS(y)<br />
U<br />
∂U<br />
gilt (vgl. Skript PDG 1, Gleichung (2.9)). Ist u ∈ D(R n ) und wählt man U, so<br />
dass supp u ⊂ U gilt, ergibt sich<br />
∫<br />
u(x) = − Φ(y − x)∆u(y) dy.<br />
R n<br />
Das aber zeigt<br />
d.h. −∆Φ = δ.<br />
∫<br />
δ(u) = u(0) = −<br />
Φ∆u = −∆Φ(u),<br />
Für das schon angekündigte Regularitätsresultat für ϕ∗T benötigen wir noch<br />
eine Vorbereitung. Der Verschiebungsoperator τ h , h ∈ R n , ist auf L 1 loc -Funktionen<br />
definiert durch (τ h f)(x) := f(x − h). Motiviert durch<br />
∫<br />
∫<br />
(τ h f)(x)ϕ(x) dx = f(x − h)ϕ(x) dx<br />
∫<br />
∫<br />
= f(x)ϕ(x + h) dx = f(x)(τ −h ϕ)(x) dx<br />
für Testfunktionen ϕ definieren wir:<br />
Definition 4.15 Es sei h ∈ R n , T ∈ D ′ (R n ). Dann definiert<br />
(τ h T)(ϕ) = T(τ −h ϕ) ∀ ϕ ∈ D(R n )<br />
die um h translatierte Distribution τ h T ∈ D ′ (R n ).<br />
Beachte wie<strong>der</strong>, dass dies wohldefiniert ist, da ϕ k → ϕ in D(R n ) τ −h ϕ k → τ −h ϕ<br />
in D(R n ) impliziert.<br />
Satz 4.16 Es sei ϕ ∈ D(R n ), T ∈ D ′ (R n ). Dann ist ϕ ∗ T ∈ C ∞ (R n ) mit<br />
ϕ ∗ T(x) = T(τ x ˇϕ).<br />
In Worten: ϕ∗T ist eine glatte Funktion, <strong>der</strong>en Wert an einer Stelle x sich dadurch<br />
ergibt, dass man T als Funktional auf die Testfunktion y ↦→ ϕ(−y −x) anwendet.<br />
Beweis. Setze f(x) := T(τ x ˇϕ). Dies definiert eine stetige Funktion f : R n → K,<br />
da x n → x in R n =⇒ τ xn ˇϕ → τ x ˇϕ in D.<br />
55
Es seien nun ψ ∈ D(R n ) und K ⊂ R n kompakt, so dass supp ψ −supp ϕ ⊂ K.<br />
Dann gilt<br />
∫<br />
∑<br />
ψ ∗ ˇϕ(y) = ψ(x)ˇϕ(y − x) dx = lim h n ψ(hk)ˇϕ(y − hk).<br />
hց0<br />
k∈Z n<br />
Dies ergibt sich daraus, dass die Summe im letzten Term eine Riemannsumme<br />
für das zu berechnende Integral ist. Sie entsteht hier dadurch, dass man auf<br />
allen Qua<strong>der</strong>n <strong>der</strong> Form kh + [0, h) n , k ∈ Z n , den Integranden durch seinen<br />
Wert bei hk ersetzt. Der Fehler, den man bei dieser Approximation macht, lässt<br />
sich gleichmäßig in y durch Ch beschränken, da <strong>der</strong> Gradient des Integranden<br />
gleichmäßig in y beschränkt ist. Dies zeigt, dass die betrachtete Riemannsumme<br />
sogar gleichmäßig in y konvergiert. Genauso ergibt sich<br />
∫<br />
∂ α (ψ ∗ ˇϕ)(y) =<br />
∑<br />
ψ(x) ∂ α ˇϕ(y − x) dx = lim h n ψ(hk) ∂ α ˇϕ(y − hk)<br />
hց0<br />
k∈Z n<br />
gleichmäßig in y für jeden Multiindex α. Da außerdem ∑ k∈Z n h n ψ(hk) ∂ α ˇϕ(y −<br />
hk) = 0 ist für y /∈ K, haben wir nun bewiesen, dass<br />
∑<br />
k∈Z n h n ψ(hk) τ hk ˇϕ → ψ ∗ ˇϕ<br />
in D(R n ) konvergiert.<br />
Weil f stetig ist, können wir auch ∫ fψ durch eine Riemannsumme approximieren.<br />
Aus <strong>der</strong> Stetigkeit von T ergibt sich dann<br />
∫<br />
∑<br />
∑<br />
f ψ = lim h n ψ(hk)f(kh) = lim h n ψ(hk)T(τ kh ˇϕ)<br />
hց0 hց0<br />
k∈Z n k∈Z<br />
(<br />
)<br />
n<br />
∑<br />
= T lim h n ψ(hk)τ kh ˇϕ = T(ψ ∗ ˇϕ) = ϕ ∗ T(ψ).<br />
hց0<br />
k∈Z n<br />
Da ψ beliebig war, folgt daraus f = ϕ ∗ T.<br />
D<strong>am</strong>it ist nun gezeigt, dass ϕ ∗ T eine stetige Funktion ist, die <strong>der</strong> Formel<br />
ϕ ∗ T = f genügt. Daraus können wir aber unmittelbar folgern, dass ϕ ∗ T ∈ C ∞<br />
gilt, indem wir bemerken, dass das gleiche Argument angewendet auf ∂ α ϕ zeigt,<br />
dass ∂ α (ϕ ∗ T) = (∂ α ϕ) ∗ T stetig ist für alle α.<br />
□<br />
Korollar 4.17 D(R n ) ist dicht in D ′ (R n ).<br />
Beweis. Es sei T ∈ D ′ (R n ). Wähle χ ∈ D(R n ) mit χ ≡ 1 auf B 1 (0) und setze<br />
χ k (x) := χ( x). Ist nun η k 1 <strong>der</strong> skalierte Standardglättungskern, so gilt<br />
k<br />
D(R n ) ∋ ϕ k := χ k (η 1 ∗ T) → T in D ′ (R n ) :<br />
k<br />
56
Als Distributionen wirken die ϕ k auf Testfunktionen ψ gemäß<br />
denn supp ψ ∗ η 1<br />
k<br />
ϕ k (ψ) = (η 1 ∗ T)(χ k ψ) = (η 1 ∗ T)(ψ) (für k groß genug)<br />
k<br />
k<br />
) → Tψ,<br />
= T(ψ ∗ ˇη 1<br />
k<br />
) = T(ψ ∗ η 1<br />
k<br />
⊂ supp ψ + B 1 (0) für alle k ∈ N und<br />
∂ α (ψ ∗ η 1) = (∂ α ψ) ∗ η 1<br />
k<br />
k<br />
gleichmäßig für alle α, so dass ψ ∗ η 1<br />
k<br />
→ ψ in D.<br />
→ ∂ α ψ<br />
□<br />
Korollar 4.18 Ist T ∈ D ′ (R n ) mit ∇T = 0, so ist T eine konstante Funktion.<br />
Beweis. Sei wie<strong>der</strong> η 1<br />
k<br />
<strong>der</strong> skalierte Standardglättungskern. Es gilt<br />
∂ j (η 1 ∗ T) = η 1 ∗ (∂ j T) = 0,<br />
k<br />
k<br />
j = 1, . . .,n,<br />
(s. Lemma 4.12) so dass η 1 ∗ T = c k für eine geeignete Konstante c k ist. Wie im<br />
k<br />
vorigen Beweis gezeigt gilt ψ ∗ η 1 → ψ in D für jede Testfunktion ψ. Es folgt<br />
k<br />
∫<br />
c k ψ = η 1 ∗ T(ψ) → Tψ<br />
k<br />
für alle ψ ∈ D(R n ) und d<strong>am</strong>it T = lim k c k . (Dieser Limes existiert: Betrachte ψ<br />
mit ∫ ψ = 1.)<br />
□<br />
Tatsächlich lässt sich die Faltung noch unter wesentlich schwächeren Voraussetzungen<br />
definieren. Dazu benötigen wir noch zwei Vorbereitungen. Für f ∈<br />
L 1 loc (Rn ), ϕ ∈ D(R n ) gilt<br />
∫ ∫<br />
∫<br />
∫<br />
ˇf ϕ = f(−x) ϕ(x) dx = f(x) ϕ(−x) dx = f ˇϕ.<br />
Dies motiviert:<br />
Definition 4.19 Ist T ∈ D ′ (R n ), so wird durch<br />
gespiegelte Distribution Ť ∈ D′ (R n ) definiert.<br />
Ťϕ = T ˇϕ die <strong>am</strong> Ursprung<br />
Es ist leicht einzusehen, dass dies wohldefiniert ist.<br />
Lemma 4.20 Ist ϕ ∈ D(R n ) und T ∈ E ′ (R n ), so gilt ϕ ∗ T ∈ D(R n ) mit<br />
ϕ ∗ T(x) = T(τ x ˇϕ) und supp ϕ ∗ T ⊂ supp ϕ + supp T.<br />
57
Beweis. Nach Satz 4.16 genügt es, supp ϕ ∗ T ⊂ supp ϕ + supp T zu zeigen: Ist<br />
x ∈ R n mit ϕ ∗ T(x) = T(τ x ˇϕ) ≠ 0, so ist supp T ∩ supp τ x ˇϕ = supp T ∩ (x −<br />
supp ϕ) ≠ ∅, d.h. x ∈ supp T + supp ϕ. Da supp T + supp ϕ kompakt ist, folgt<br />
daraus die Behauptung.<br />
□<br />
Wir können nun sogar die Faltung zwischen zwei Distributionen definieren,<br />
wenn nur eine von ihnen kompakten Träger hat. Zur Motivation <strong>der</strong> Definition<br />
beachte, dass für ϕ ∈ D(R n ), T ∈ D ′ (R n )<br />
definiert war.<br />
ϕ ∗ T(ψ) = T(ψ ∗ ˇϕ) ∀ ψ ∈ D(R n )<br />
Definition 4.21 Es sei S ∈ E ′ (R n ), T ∈ D ′ (R n ). Dann wird durch<br />
eine Distribution S ∈ D ′ (R n ) definiert.<br />
S ∗ T(ψ) = T(ψ ∗ Š) ∀ ψ ∈ D(Rn )<br />
Beachte, dass nach Lemma 4.20 ψ ∗ Š ∈ D(Rn ) gilt, so dass S ∗ T wirklich ein<br />
lineares Funktional auf D(R n ) ist. Um einzusehen, dass S ∗ T eine Distribution<br />
ist, muss noch die Stetigkeitsbedingung überprüft werden. Sei dazu K ⊂ R n<br />
kompakt, ˜K := K − supp S. Für alle ϕ ∈ D(R n ) mit supp ϕ ⊂ K gilt dann<br />
∑<br />
|S ∗ T(ϕ)| = |T(ϕ ∗ Š)| ≤ C ˜K(T) ‖∂ α (ϕ ∗ Š)‖ L ∞ ( ˜K) ,<br />
wobei<br />
|α|≤N ˜K(T)<br />
‖∂ α (ϕ ∗ Š)‖ L ∞ = ‖(∂α ϕ) ∗ Š‖ L ∞ = sup<br />
Zus<strong>am</strong>mengefasst ergibt sich<br />
≤ C ˜K−K (Š)<br />
∑<br />
x∈ ˜K<br />
|β|≤N ˜K−K (Š)<br />
= C ˜K−K (Š) ∑<br />
|S ∗ T(ϕ)| ≤ C ∑<br />
|β|≤N ˜K−K (Š)<br />
|α|≤N<br />
|Š(τ ̂<br />
x∂ α ϕ)|<br />
‖∂y β (τ ̂<br />
x∂ α ϕ(y))‖ L ∞<br />
‖∂ β ∂ α ϕ‖ L ∞.<br />
‖∂ α ϕ‖ L ∞.<br />
für hinreichend großes C > 0 und N = N ˜K(T) + N ˜K−K (Š).<br />
Beispiel: Es ist δ ∈ E ′ (R n ); somit ist δ ∗ T für alle T ∈ D ′ (R n ) erklärt. Da für<br />
Testfunktionen ϕ<br />
gilt, ist δ ∗ T = T.<br />
(δ ∗ T)ϕ = T(ϕ ∗ ˇδ) = T(ϕ ∗ δ) = Tϕ<br />
58
Lemma 4.22 Sei S ∈ E ′ (R n ), T ∈ D ′ (R n ). Für alle Multiindizes α gilt<br />
∂ α (S ∗ T) = (∂ α S) ∗ T = S ∗ (∂ α T).<br />
Beweis. Für ϕ ∈ D(R n ) ist nach Lemma 4.12<br />
∂ α (S ∗ T)(ϕ) = (−1) |α| S ∗ T(∂ α ϕ) = (−1) |α| T((∂ α ϕ) ∗<br />
{ Š)<br />
(−1) |α| T(∂ α (ϕ ∗ Š)) = ∂α T(ϕ ∗ Š) = (S ∗ ∂α T)(ϕ) bzw.<br />
=<br />
(−1) |α| ̂<br />
T(ϕ ∗ (∂ α Š)) = T(ϕ ∗ ( ∂ α S)) = ((∂ α S) ∗ T)(ϕ).<br />
(Beachte ∂ α Ťϕ = (−1) |α| Ť(∂ α ϕ) = (−1) |α| ̂<br />
T( ∂ α ϕ) = T(∂ α ˇϕ) = (−1) |α| ∂ α T(ˇϕ) =<br />
̂<br />
(−1) |α| ∂ α Tϕ.)<br />
Beispiel: Ist S ∈ E ′ (R n ), so gilt S ∗ δ = S, denn für Testfunktionen ϕ ist<br />
S ∗ δ(ϕ) = δ(ϕ ∗ Š) = ϕ ∗ Š(0) = Š(τ 0 ˇϕ) = S(ϕ).<br />
(Dies ergibt sich aus <strong>der</strong> schon bekannten Tatsache δ ∗ S = S in Verbindung mit<br />
<strong>der</strong> folgenden Bemerkung.)<br />
Bemerkung 4.23 1. Ohne Beweis bemerken wir, dass S ∗ T = T ∗ S für alle<br />
S, T ∈ E ′ (R n ) gilt.<br />
2. Ist L ein linearer partieller Differentialoperator mit konstanten Koeffizienten<br />
und mit Fund<strong>am</strong>entallösung E, so gilt sogar für alle S ∈ E ′ (R n ), dass<br />
u := S ∗ E eine Lösung von<br />
Lu = S<br />
im Distributionensinne ist (vgl. Satz 4.14): Es ist Lu = S∗(LE) = S∗δ = S.<br />
Lemma 4.24 Sei S ∈ E ′ (R n ), ϕ ∈ C ∞ (R n ) ⊂ D ′ (R n ). Dann ist S∗ϕ ∈ C ∞ (R n ).<br />
Beweis. Sei R > 0 beliebig. Wähle χ ∈ D(R n ) mit χ ≡ 1 auf B R (0)+supp Š. Für<br />
ψ ∈ D(R n ) mit supp ψ ⊂ B R (0) gilt dann<br />
S ∗ ϕ(ψ) = ϕ(ψ ∗<br />
∫R Š) = ϕ(χ · ψ ∗ Š) = χ(x)ϕ(x)(ψ ∗ Š)(x) dx<br />
n<br />
= ψ ∗ Š(χϕ) = Š((χϕ) ∗ ˇψ) = Š( ˇψ ∗<br />
̂<br />
χϕ) =<br />
̂<br />
χϕ ∗ Š( ˇψ) =<br />
̂<br />
χϕ ∗ Š(ψ).<br />
̂<br />
Dies zeigt, dass S ∗ ϕ = χϕ ∗ Š ist. ̂<br />
Nun ist aber χϕ ∈ D(R n ) und Š ∈ D′ (R n ),<br />
̂<br />
so dass χϕ ∗ Š C∞ -glatt ist nach Satz 4.16.<br />
□<br />
Wir kommen nun zu einer wichtigen Anwendung <strong>der</strong> Theorie.<br />
□<br />
59
Definition 4.25 Es sei L ein linearer partieller Differentialoperator mit C ∞ -<br />
glatten Koeffizienten auf Ω ⊂ R n offen. L heißt hypoelliptisch auf Ω ′ ⊂ Ω offen,<br />
wenn<br />
T ∈ D ′ (Ω ′ ), LT ∈ C ∞ (Ω ′ ) =⇒ T ∈ C ∞ (Ω ′ )<br />
gilt.<br />
Hypoelliptische Operatoren haben also eine beson<strong>der</strong>s gutartige Regularitätstheorie:<br />
Wenn die Daten glatt sind und T eine (nur) distributionelle Lösung ist, so<br />
ist T automatisch eine glatte Funktion. Der N<strong>am</strong>e ‘hypoelliptisch’ kommt daher,<br />
dass elliptische Operatoren tatsächlich hypoelliptisch im oben definierten Sinne<br />
sind. (Für elliptische Operatoren zweiter Ordnung wurde das im Skript PDG 1,<br />
Kap. 5 gezeigt.) Allerdings ist nicht je<strong>der</strong> partieller Differentialoperator hypoelliptisch<br />
selbst wenn er sogar konstante Koeffizienten hat: Betrachte etwa ∂ x1 auf<br />
R n , n ≥ 2.<br />
Satz 4.26 Es sei L ein linearer partieller Differentialoperator mit konstanten<br />
Koeffizienten, <strong>der</strong> eine Fund<strong>am</strong>entallösung E mit E ∈ C ∞ (R n \ {0}) besitze.<br />
Dann ist L hypoelliptisch auf allen Ω ⊂ R n offen.<br />
Beispiel: Die Fund<strong>am</strong>entallösung des Laplace-Operators ∆ ist glatt auf R n \ {0}<br />
und ∆ d<strong>am</strong>it hypoelliptisch.<br />
Beweis. Sei u ∈ D ′ (Ω), Lu = f ∈ C ∞ (Ω).<br />
Wir betrachten zunächst den Fall f = 0. Fixiere x 0 ∈ Ω, ε > 0 und χ ∈ D(Ω),<br />
so dass B ε (x 0 ) ⊂ Ω und χ ≡ 1 auf B ε (x 0 ). Dann ist χu ∈ E ′ (Ω) und<br />
χu = (χu) ∗ δ = (χu) ∗ (LE) = L(χu) ∗ E.<br />
Wähle ψ ∈ C ∞ (R n ) mit ψ(x) = ψ(|x|), so dass<br />
{<br />
0 für |x| ≤ ε 4<br />
ψ(x) =<br />
,<br />
1 für |x| ≥ ε 2<br />
gilt. D<strong>am</strong>it können wir<br />
χu = L(χu) ∗ (ψE) + L(χu) ∗ ((1 − ψ)E)<br />
schreiben. Da nun L(χu) ∈ E ′ (R n ) und ψE ∈ C ∞ (R n ) ist, ist <strong>der</strong> erste Summand<br />
nach Lemma 4.24 C ∞ -glatt.<br />
Wir beenden den Beweis im Falle f = 0, indem wir zeigen, dass <strong>der</strong> zweite<br />
Summand auf B ε (x 0) verschwindet. D<strong>am</strong>it ist dann ja u ∈ C ∞ (B ε (x 0)) nachgewiesen,<br />
und somit u in <strong>der</strong> Umgebung eines beliebigen Punktes als glatt erkannt.<br />
4 4<br />
Sei ϕ ∈ D(B ε (x 0)). Es ist<br />
4<br />
L(χu) ∗ ((1 − ψ)E)(ϕ) = (1 − ψ)E(ϕ ∗<br />
̂<br />
L(χu)),<br />
60
wobei<br />
̂<br />
̂<br />
supp(ϕ ∗ L(χu)) ⊂ supp ϕ + supp L(χu) ⊂ supp ϕ − supp L(χu)<br />
⊂ B ε<br />
4 (x 0) + (R n \ B ε (−x 0 )),<br />
weil L(χu) = f = 0 auf B ε (x 0 ) ist. Somit ist<br />
̂<br />
supp(ϕ ∗ L(χu)) ⊂ R n \ B3ε(0).<br />
4<br />
(Beachte |x 1 − x 0 | ≤ ε, |x 4 2 + x 0 | ≥ ε =⇒ |x 1 + x 2 | ≥ |x 2 + x 0 | − |x 1 − x 0 | ≥ 3ε.)<br />
4<br />
An<strong>der</strong>erseits ist supp(1 − ψ)E ⊂ B ε(0), so dass sich in <strong>der</strong> Tat<br />
2<br />
L(χu) ∗ ((1 − ψ)E)(ϕ) = 0<br />
ergibt.<br />
Ist nun allgemein Lu = f ∈ C ∞ (Ω), so wählen wir wie<strong>der</strong> χ ∈ D(Ω) und<br />
ε > 0, so dass B ε (x 0 ) ⊂ Ω und χ ≡ 1 auf B ε (x 0 ). Setzt man u 0 = (χf) ∗ E ∈ C ∞<br />
(Satz 4.16), so folgt<br />
Lu 0 = (χf) ∗ (LE) = (χf) ∗ δ = χf = f auf B ε (x 0 ).<br />
D<strong>am</strong>it ist L(u − u 0 ) = 0 auf B ε (x 0 ) und nach dem schon behandelten Fall folgt<br />
u − u 0 ∈ C ∞ (B ε (x 0 )) und d<strong>am</strong>it auch u ∈ C ∞ (B ε (x 0 )).<br />
□<br />
4.3 Temperierte Distributionen<br />
Unter an<strong>der</strong>em weil bei <strong>der</strong> Behandlung linearer PDG mit konstanten Koeffizienten<br />
die Fouriertransformation ein so nützliches Hilfsmittel ist, würde man<br />
gerne die Fouriertransformierte einer allgemeinen Distribution definieren. Das ist<br />
in <strong>der</strong> Tat für eine große Klasse von Distributionen, die wir nun untersuchen werden,<br />
möglich: Die sogenannten temperierten Distributionen. Die Schwierigkeit für<br />
allgemeine Distributionen rührt daher, dass <strong>der</strong> Raum <strong>der</strong> Testfunktionen nicht<br />
abgeschlossen bezüglich <strong>der</strong> Fouriertransformation ist, so dass man die Fouriertransformation<br />
nicht einfach ‘durch Dualität’ auf Distributionen übertragen kann.<br />
Jedoch ist ˆϕ(ξ) für ϕ ∈ D(R n ) immer noch ‘schnell fallend’ für |ξ| → ∞. Diese<br />
Beobachtung führt zur Definition eines neuen Raumes S <strong>der</strong> schnell fallenden<br />
glatten Funktionen, <strong>der</strong> insbeson<strong>der</strong>e die Testfunktionen enthält. Temperierte<br />
Distributionen sind dann gerade die stetigen Linearformen auf S. Sehr grob gesprochen<br />
handelt es sich hierbei um solche Distributionen, die bei ∞ nicht zu<br />
schnell anwachsen.<br />
Definition 4.27<br />
(i) Der Schwarz-Raum S ist definiert durch<br />
S := {ϕ ∈ C ∞ (R n ) : ‖ϕ‖ N < ∞ ∀ N ∈ N},<br />
61
wobei ‖ · ‖ N die Norm<br />
bezeichnet.<br />
‖ϕ‖ := max sup |x α ∂ β ϕ(x)|<br />
|α|,|β|≤N x∈R n<br />
(ii) Eine Folge (ϕ j ) ⊂ S von Schwarz-Funktionen konvergiert in S gegen ϕ ∈<br />
S, wenn ‖ϕ j − ϕ‖ N → 0 für alle N ∈ N.<br />
Beispiele:<br />
1. Offenbar ist D(R n ) ⊂ S. Die Funktion x ↦→ e −x2 aber liegt in S, jedoch<br />
nicht in D(R n ).<br />
2. Gilt ϕ k → ϕ in D(R n ), so gilt auch ϕ k → ϕ in S. (Der Beweis ist einfach.)<br />
Bemerkung 4.28 S is ein lokalkonvexer Raum, dessen Topologie von <strong>der</strong> F<strong>am</strong>ilie<br />
<strong>der</strong> Normen (‖·‖ N ) N∈N induziert wird. Es gibt eine Metrik, die diese Topologie<br />
erzeugt. (Übung.)<br />
(i) Ist ϕ ∈ S, so ist auch x ↦→ x α ∂ β ϕ(x) ∈ S für alle Multiin-<br />
Lemma 4.29<br />
dizes α, β.<br />
(ii) Für jeden Sobolevraum W k,p (R n ) mit k ∈ N 0 und 1 ≤ p ≤ ∞ gilt S ⊂<br />
W k,p (R n ) und es gibt eine Konstante C = C(k, p, n) und ein N = N(k, p, n),<br />
so dass<br />
‖ϕ‖ W k,p (R n ) ≤ C‖ϕ‖ N ∀ ϕ ∈ S.<br />
(iii) ϕ, ψ ∈ S =⇒ ϕ ∗ ψ ∈ S.<br />
(iv) ϕ, ψ ∈ S =⇒ ϕψ ∈ S.<br />
Beweis. (i) und (iv) sind einfach (Leibniz-Regel!).<br />
(ii) Seien ϕ ∈ S und α ein Multiindex mit |α| ≤ k. Es gilt<br />
∫ ∫ ∫<br />
|∂ α ϕ| p ≤ |∂ α ϕ| p + |∂ α ϕ| p<br />
R n B 1 (0)<br />
R n \B 1 (0)<br />
∫<br />
≤ |B 1 (0)| sup |∂ α ϕ(x)| p + |x| −n−1 |x| n+1 |∂ α ϕ(x)| p dx<br />
≤ C‖ϕ‖ p k +<br />
x∈B 1 (0)<br />
R n \B 1 (0)<br />
sup |x| n+1 |∂ α ϕ| p ·<br />
x∈R n \B 1 (0)<br />
≤ C‖ϕ‖ p k + C‖ϕ‖p max{k,n+1}<br />
≤ C‖ϕ‖ p max{k,n+1} .<br />
Daraus ergibt sich die Behauptung.<br />
62<br />
∫<br />
R n \B 1 (0)<br />
|x| −n−1 dx
(iii) Beachte, dass ϕ ∗ψ(x) = ∫ ϕ(x −y)ψ(y) dy definiert und C ∞ -glatt ist, da<br />
ψ ∈ L 1 (R n ) und ∂ α ϕ ∈ L ∞ (R n ) für jeden Mutiindex α ist. (Insbeson<strong>der</strong>e ergeben<br />
sich Ableitungen von ϕ ∗ ψ durch Differentiation unter dem Integral.)<br />
Nun ist für hinreichend großes N ∈ N<br />
∫<br />
|x α ∂ β (ϕ ∗ ψ)(x)| =<br />
∣ ((x − y) + y) α ∂ β ϕ(x − y)ψ(y) dy<br />
∣<br />
∑<br />
( α =<br />
(x − y)<br />
∣ γ)∫<br />
α−γ ∂ β ϕ(x − y) y γ ψ(y) dy<br />
∣<br />
γ≤α<br />
∑<br />
≤ C‖ϕ‖ N ‖y γ ψ(y)‖ L 1<br />
γ≤α<br />
≤ C‖ϕ‖ N ‖ψ‖ N<br />
nach (i) und (ii). Daraus folgt nun die Behauptung.<br />
Eine wichtige Eigenschaft des Schwarz-Raumes ist seine Invarianz unter Fouriertransformation.<br />
Wegen S ⊂ L 1 ist die Fouriertransformierte einer Schwarz-<br />
Funktion ϕ ∈ S gegeben durch<br />
Fϕ(ξ) = ˆϕ(ξ) = 1<br />
(2π) n 2<br />
∫<br />
R n e −ix·ξ ϕ(x) dx.<br />
Wir stellen einige (teils schon bekannte) Tatsachen über die Fouriertransformation<br />
auf S zus<strong>am</strong>men:<br />
Lemma 4.30 Es seien ϕ, ϕ k , ψ ∈ S, k = 1, 2, . . ., α ein Multiindex und h ∈ R n .<br />
Dann gilt<br />
(i) ̂∂ α ϕ(ξ) = (iξ) α ˆϕ(ξ) und ∂ α ˆϕ(x) = ̂ (−ix) α ϕ(ξ),<br />
(iia) ̂τ h ϕ(ξ) = e −ih·ξ ˆϕ(ξ) und τ h ˆϕ(ξ) = êih·x ϕ(ξ),<br />
(iib) ̂ϕ λ (ξ) = λ n ˆϕ(λξ) für ϕ λ (x) := ϕ(λx),<br />
(iic) ˆϕ = ˇϕ,<br />
(iii) ˆϕ ∈ S,<br />
(iv) ϕ k → ϕ in S =⇒ ˆϕ k → ˆϕ in S,<br />
(v) ̂ϕ ∗ ψ = (2π) n 2 ˆϕ ˆψ.<br />
Beweis. (ii) und (v) sind schon bekannt<br />
Auch (i) folgt aus schon bekannten Eigenschaften <strong>der</strong> Fouriertransformation<br />
auf L 1 : Die erste Gleichung ergibt sich aus ∂ β ϕ ∈ S ⊂ L 1 für alle Multiindizes β;<br />
63<br />
□
für die zweite Gleichung beachte, dass (−ix) β ϕ ∈ S ⊂ L 1 für alle Multiindizes β<br />
gilt, so dass in <strong>der</strong> Tat ˆϕ differenzierbar ist mit ∂ α ˆϕ(x) = (−ix) ̂α<br />
ϕ(ξ).<br />
(iii) & (iv): Wie eben begründet ist ϕ C ∞ -glatt mit<br />
|ξ β ∂ γ ˆϕ(ξ)| = | ∂ ̂β<br />
(x γ ϕ)(ξ)| ≤ 1 ∫<br />
|∂ β (x γ ϕ)| dx<br />
(2π) n 2<br />
= 1 ‖∂ β (x γ ϕ)‖<br />
(2π) n L 1 ≤ C‖∂ β (x γ ϕ)‖Ñ<br />
2<br />
für hinreichend großes Ñ ∈ N nach Lemma 4.29(ii). Nach Vergrößerung von Ñ<br />
ergibt sich mit Hilfe <strong>der</strong> Leibniz-Regel<br />
|ξ β ∂ γ ˆϕ(ξ)| ≤ C‖ϕ‖Ñ.<br />
Dies zeigt, dass es zu jedem N ∈ N ein Ñ ∈ N und eine Konstante C gibt, so<br />
dass<br />
‖ˆϕ‖ N ≤ C‖ϕ‖Ñ ∀ϕ ∈ S.<br />
Das beendet den Beweis von (iii) und zeigt außerdem (iv).<br />
□<br />
Wir erinnern hier noch an die Tatsache, dass F : S → S sich zu einer linearen<br />
Isometrie F : L 2 (R n ) → L 2 (R n ) fortsetzt.<br />
Wie in <strong>der</strong> Theorie <strong>der</strong> Fouriertransformation üblich betrachten wir komplexwertige<br />
Funktionen.<br />
Definition 4.31 Eine lineare Abbildung T : S → C ist eine temperierte Distribution<br />
(man schreibt T ∈ S ′ ), wenn<br />
ϕ k → ϕ in S =⇒ Tϕ k → Tϕ in C.<br />
Wegen D(R n ) ⊂ S und ϕ k → ϕ in D(R n ) =⇒ ϕ k → ϕ in S gilt S ′ ⊂ D ′ (R n ).<br />
Satz 4.32 Es sei T : S → C eine lineare Abbildung. T ist genau dann eine<br />
temperierte Distribution, wenn C > 0 und N ∈ N existieren, so dass<br />
|Tϕ| ≤ C‖ϕ‖ N<br />
∀ ϕ ∈ S<br />
gilt.<br />
Beweis. Dass die Bedingung hinreichend für T ∈ S ′ ist, ist klar.<br />
Um die Notwendigkeit zu beweisen, nehmen wir an, es gäbe zu jedem k ∈ N<br />
ein ϕ k ∈ S, so dass<br />
|Tϕ| > k‖ϕ k ‖ k<br />
gilt. O.B.d.A. ist zudem Tϕ k = 1 für alle k. (Multipliziere mit geeigneten Skalaren.)<br />
Für jedes k 0 ∈ N ist dann aber<br />
1 > k‖ϕ k ‖ k ≥ k‖ϕ k ‖ k0 ∀ k ≥ k 0 ,<br />
64
so dass lim k→∞ ‖ϕ k ‖ k0 = 0. Dies zeigt ϕ k → 0 in S. Jedoch konvergiert Tϕ k = 1<br />
nicht gegen 0.<br />
□<br />
Beispiele:<br />
1. L p ⊂ S ′ für alle 1 ≤ p ≤ ∞, nicht jedoch L p loc<br />
, wie 4. zeigen wird.<br />
2. Alle Polynome liegen in S ′ : Für ϕ ∈ S, p ein Polynom gilt | ∫ p ϕ| ≤<br />
‖pϕ‖ L 1 ≤ C‖ϕ‖ N für hinreichend großes N.<br />
3. Endliche Maße µ sind temperierte Distributionen gemäß ϕ ↦→ ∫ ϕ dµ, denn<br />
es gilt<br />
∣∫<br />
∣∣∣ ϕ dµ<br />
∣ ≤ |µ|(Rn )‖ϕ‖ L ∞.<br />
4. Die Funktion x ↦→ e x2 liegt nicht in S ′ (aber in D ′ (R n )). (Übung.)<br />
Definition 4.33 Eine Folge von temperierten Distributionen T n konvergiert in S ′<br />
gegen T ∈ S ′ , wenn T n ϕ in C gegen Tϕ konvergiert für alle ϕ ∈ S.<br />
Genau wie für D ′ definiert man die Ableitungen ∂ α T, die Reflektion Ť und<br />
die Verschiebung τ h T für T ∈ S. (Wegen S ′ ⊂ D ′ (R n ) sind diese Distributionen<br />
als Elemente von D ′ (R n ) schon definiert.) Man muss sich davon überzugen, dass<br />
diese Ausdrücke als Elemente von S ′ wohldefiniert sind. Das ist aber einfach.<br />
Die Multiplikation mit glatten Funktionen ist jedoch i.A. nicht wohldefiniert.<br />
(Z.B. ist 1 ∈ L ∞ ⊂ S ′ aber e x2 = e x2 · 1 /∈ S ′ .)<br />
Lemma 4.34 Es sei ϕ ∈ C ∞ , so dass jede Ableitung ∂ α ϕ höchstens polynomiell<br />
divergiert: Es gibt Konstanten C = C(α), N = N(α), so dass<br />
Dann ist ϕT wohldefiniert.<br />
|∂ α ϕ(x)| ≤ C(1 + |x| N ) ∀ x ∈ R n .<br />
Beweis. Für ψ ∈ S und Multiindizes α und β ist<br />
|x α ∂ β (ϕψ)(x)| =<br />
∑ ( )<br />
β ∣ xα ∂ γ ϕ(x)∂ β−γ ψ(x)<br />
γ<br />
∣<br />
γ≤β<br />
≤ ∑ ( β<br />
C(γ)(1 + |x|<br />
γ)<br />
N(γ) )|x α ∂ γ ψ(x)|<br />
γ≤β<br />
≤ C‖ψ‖ N<br />
für C und N (nur von α, β abhängend) groß genug. Dies zeigt ϕψ ∈ S und<br />
ψ k → ψ in S =⇒ ϕψ k → ϕψ in S.<br />
□<br />
Beispiel: Insbeson<strong>der</strong>e darf man temperierte Distributionen also mit Polynomen<br />
und Funktionen <strong>der</strong> Form x ↦→ e ia·x , a ∈ R n , multiplizieren.<br />
65
Definition 4.35 Sei ϕ ∈ S, T ∈ S ′ . Durch<br />
ϕ ∗ T(ψ) = T(ψ ∗ ˇϕ)<br />
∀ ψ ∈ S<br />
wird eine temperierte Distribution definiert.<br />
Beachte, dass nach Lemma 4.29 ψ ∗ ˇϕ ∈ S gilt und dass, wenn ϕ kompakten<br />
Träger hat, diese Definition mit <strong>der</strong> früheren Definition für ϕ ∗ T übereinstimmt.<br />
Um die Wohldefiniertheit zu begründen, muss man noch zeigen, dass ψ k → ψ in<br />
S impliziert, dass auch ψ k ∗ ˇϕ → ψ ∗ ˇϕ in S konvergiert:<br />
Nach Lemma 4.30(v) ist<br />
̂ψ k ∗ ˇϕ = (2π) n 2 ˆψk ˆˇϕ → (2π) n 2 ˆψ ˆˇϕ = ̂ψ ∗ ˇϕ in S,<br />
wobei <strong>der</strong> zweite Schritt wie im Beweis von Lemma 4.34 folgt. Mit Lemma 4.30(iv)<br />
und (iii) erhalten wir nun<br />
ψ k ∗ ˇϕ → ψ ∗ ˇϕ in S.<br />
□<br />
Wir kommen nun zur Fouriertransformation für temperierte Distributionen.<br />
Für ϕ, ψ ∈ S gilt ∫ ˆϕψ = ∫ ϕ ˆψ, denn die Fouriertransformation ist eine L 2 -<br />
Isometrie, so dass<br />
∫ ∫ ∫ ∫<br />
ˆϕψ = ˆϕψ = ˆϕˆψ = ˇϕ ˇˆψ<br />
∫<br />
= ϕ ˆψ,<br />
wobei wir im dritten Schritt ausgenutzt haben, dass<br />
ˆχ(ξ) = 1 ∫<br />
e ix·ξ χ(x) dx = ˇˆχ(x)<br />
(2π) n 2<br />
für alle χ ∈ S gilt. Dadurch motiviert definieren wir:<br />
Definition 4.36 Ist T ∈ S ′ , so wird durch<br />
ˆTϕ := T ˆϕ ∀ ϕ ∈ S<br />
die Fouriertransformierte FT := ˆT ∈ S ′ definiert.<br />
Dies ist wohldefiniert nach Lemma 4.30(iii) und (iv).<br />
Satz 4.37 Die Abbildung F : S ′ → S ′ ist linear und stetig. Für ϕ ∈ S, T ∈ S ′ ,<br />
Multiindizes α und h ∈ R n gilt<br />
(i) ̂∂ α T = (iξ) α ˆT und ∂<br />
α ˆT = ̂ (−ix)α T,<br />
66
(ii) ̂τ h T = e −ih·ξ ˆT und τh ˆT = ê ih·x T,<br />
(iii) ˆT = Ť<br />
(iv) ̂ϕ ∗ T = (2π) n 2 ˆϕ ˆT.<br />
Beweis. Die Stetigkeit von F ist klar.<br />
(i) Aus den entsprechenden Eigenschaften für Schwarz-Funktionen folgt<br />
sowie<br />
̂∂ α Tψ = ∂ α T ˆψ = (−1) |α| T(∂ α ˆψ) = (−1) |α| T( ̂ (−ix) α ψ)<br />
= (−1) |α| ˆT((−ix) α ψ) = (iξ) α ˆTψ<br />
∂ α ˆTψ = (−1)<br />
|α| ˆT(∂ α ψ) = (−1) |α| T(̂∂ α ψ) = (−1) |α| T((iξ) α ˆψ)<br />
= (−iξ) |α| T( ˆψ) = ̂ (−iξ) |α| Tψ<br />
für Schwarz-Funktionen ψ.<br />
(ii) Dies folgt nach dem gleichen Schema aus den entsprechenden Eigenschaften<br />
für Schwarz-Funktionen.<br />
(iii) Für Schwarz-Funktionen ψ gilt ˆTψ = T ˆψ = T ˇψ = Ťψ.<br />
(iv) Wegen<br />
ˆŤ = T gilt<br />
̂ϕ ∗ Tψ = ϕ ∗ T ˆψ = T( ˆψ ∗ ˇϕ) = ˆŤ( ̂ˆψ ∗ ˇϕ) = (2π)<br />
n<br />
2 ˆŤ( ˆψ ˆˇϕ) = (2π) n 2 ˇˆT( ˇψ ˇˆϕ)<br />
= (2π) ˇˆT(̂<br />
n<br />
2 ψ ˆϕ) = (2π) n n<br />
2 ˆT(ψ ˆϕ) = (2π) 2 ˆϕ ˆT(ψ)<br />
für Schwarz-Funktionen ψ.<br />
Beispiele:<br />
□<br />
1. ˆδ = 1<br />
(2π) n 2 , denn<br />
ˆδϕ = δ(ˆϕ) = 1<br />
(2π) n 2<br />
2. ˆ1 = (2π) n 2 δ, denn nach 1. gilt<br />
∫<br />
∫<br />
e −i0·x ϕ(x) dx =<br />
R n<br />
R n 1<br />
(2π) n 2<br />
ˆ1 = (2π) n 2 ˆδ = (2π)<br />
n<br />
2 ˇδ = (2π)<br />
n<br />
2 δ.<br />
ϕ(x) dx ∀ ϕ ∈ S.<br />
Mit Fouriermethoden lässt sich <strong>der</strong> Satz von Liouville (vgl. Skript PDG 1)<br />
wesentlich verallgemeinern. Zur Vorbereitung benötigen wir den folgenden Satz,<br />
<strong>der</strong> die Distributionen mit einpunktigem Träger charakterisiert.<br />
67
Satz 4.38 Es sei T eine Distribution mit supp T = {0}. Dann gibt es ein N ∈ N<br />
und Zahlen c α für alle Multiindizes |α| ≤ N, so dass<br />
T = ∑<br />
c α ∂ α δ<br />
ist.<br />
Beweis. Hausaufgabe.<br />
|α|≤N<br />
Satz 4.39 (Verallgemeinerter Satz von Liouville) Es sei L = ∑ |α|≤k a α∂ α<br />
ein linearer partieller Differentialoperator mit konstanten Koeffizienten. Mit p(ξ) :=<br />
∑<br />
|α|≤k a αξ α werde das Symbol von L bezeichnet.<br />
Ist nun p(iξ) ≠ 0 für alle ξ ∈ R n \ {0}, so ist jede distributionelle Lösung <strong>der</strong><br />
PDG<br />
LT = 0 mit T ∈ S ′<br />
ein Polynom.<br />
Beweis. Wegen LT = 0 ist<br />
0 = ̂LT = ∑<br />
a α ̂∂α T = ∑<br />
a α (iξ) α ˆT = p(iξ) ˆT<br />
|α|≤k<br />
|α|≤k<br />
und somit supp ˆT = {0}, so dass nach Satz 4.38<br />
ˆT = ∑<br />
c α ∂ α δ<br />
für geeignete N ∈ N und c α ∈ C gilt.<br />
Dann aber ist<br />
T = ∑<br />
|α|≤N<br />
|α|≤N<br />
c α̂<br />
(iξ) αˆδ ∑<br />
=<br />
|α|≤N<br />
c α (−iξ) α (2π) − n 2 .<br />
Korollar 4.40 (Satz von Liouville für harmonische Funktionen) Ist T ∈<br />
L ∞ (R n ) mit ∆T = 0 (im Distributionensinne), so ist T konstant.<br />
Beweis. Für das zum Laplace-Operator gehörige Symbol p ist p(iξ) = −ξ 2 ≠ 0,<br />
wenn ξ ≠ 0 ist. Nach Satz 4.39 ist T also ein Polynom. Da T zudem als beschränkt<br />
vorausgesetzt ist, muss T konstant sein.<br />
□<br />
□<br />
68
4.4 Der Satz von Malgrange-Ehrenpreis<br />
Wie wir in Abschnitt 4.2 gesehen haben, sind Fund<strong>am</strong>entallösungen ein wesentliches<br />
Hilfsmittel, um lineare PDG mit konstanten Koeffizienten zu untersuchen.<br />
Es stellt sich also ganz natürlich die Frage, ob man die Existenz von Fund<strong>am</strong>entallösungen<br />
garantieren kann.<br />
Der Satz von Malgrange-Ehrenpreis, den wir in diesem Abschnitt beweisen<br />
werden, besagt gerade, dass das tatsächlich immer möglich ist. Es ist instruktiv,<br />
eine Formel für die Fund<strong>am</strong>entallösung heuristisch herzuleiten.<br />
Heuristik: Sei L ein linearer partieller Differentialoperator mit konstanten Koeffizienten,<br />
dessen Symbol mit p(ξ) bezeichnet werde. Wie im Beweis von Satz 4.39<br />
gezeigt ist dann ̂LT = p(iξ) ˆT für temperierte Distributionen T. Es folgt<br />
LE = δ ⇐⇒ p(iξ)Ê = ̂LE = ˆδ = 1<br />
(2π) n 2<br />
⇐⇒ Eϕ = 1 ∫<br />
(2π) n 2<br />
R n<br />
⇐⇒ Ê = 1<br />
(2π) n 2 p(iξ)<br />
ˆϕ(−ξ)<br />
p(iξ) dξ ∀ ϕ ∈ D(Rn ).<br />
Problematisch ist hier jedoch, dass p(iξ) i.A. Nullstellen hat, so dass dieses Integral<br />
womöglich nicht konvergiert. (Es gibt jedoch interessante Fälle, in denen<br />
p(iξ) ≠ 0 ist, wie etwa für den Helmholtz-Operator L = −∆ + c für c > 0 mit<br />
p(iξ) = ξ 2 + c. Hier lässt sich E tatsächlich in dieser Weise definieren.)<br />
Die grundlegende Idee zum Beweis <strong>der</strong> Existenz von Fund<strong>am</strong>entallösungen<br />
ist nun, die Nullstellen von p(iξ) beim Integrieren durch einen Umweg in C n zu<br />
vermeiden. Wir benötigen zur Vorbereitung drei kleine Lemmas.<br />
Lemma 4.41 Ist f ∈ L 1 (R n ) mit kompaktem Träger, so lässt sich ˆf zu einer<br />
holomorphen Funktion auf C n fortsetzen. Ist sogar f ∈ C ∞ c (Rn ), dann ist<br />
sup |ξ α ˆf(ξ)| ≤ C<br />
|Im ξ|≤M<br />
für eine von M > 0 abhängende Konstante C.<br />
Insbeson<strong>der</strong>e ist also für Testfunktionen f die Abbildung<br />
R n ∋ ζ ↦→<br />
sup | ˆf(ζ + iη)|<br />
{η∈R n :|η|≤M}<br />
schnell fallend für |ζ| → ∞ (d.h. schneller als jede Potenz |ζ| −N ).<br />
Beweis. Es ist<br />
ˆf(ξ) = 1 ∫<br />
e −iξ·x f(x) dx.<br />
(2π) n 2 R n<br />
Da ξ ↦→ e −ix·ξ holomorph auf C n ist und f kompakten Träger hat, können wir<br />
beliebig oft unter dem Integral komplex differenzieren.<br />
69
Ist f zudem C ∞ -glatt, so gilt für |Imξ| ≤ M<br />
∣ ∫<br />
∣ ∣∣∣<br />
|ξ α 1<br />
∣∣∣<br />
ˆf(ξ)| = (iξ) α e −iξ·x f(x) dx<br />
(2π) n ∣ = (−1) |α| ∫<br />
∂xe α −iξ·x f(x) dx<br />
2<br />
R n (2π) n ∣<br />
2<br />
R ∣ n =<br />
1<br />
∣∣∣<br />
∣ e<br />
(2π) n 2<br />
∫R −iξ·x ∂x α f(x) dx ≤ eRM<br />
‖∂ α f‖ n (2π) n L 1<br />
2<br />
wenn supp f ⊂ B R (0).<br />
□<br />
Es sei im Folgenden L = ∑ |α|≤k a α∂ α ein linearer partieller Differentialoperator<br />
mit konstanten Koeffizienten und Symbol p(ξ) := ∑ |α|≤k a αξ α , das wir als<br />
Polynom auf C n auffassen. Nach eventueller Drehung des Koordinatensystems<br />
dürfen wir annehmen, dass<br />
p(ξ) = ξ k n + Terme von niedrigerer Ordnung in ξ n .<br />
Wir setzen ξ ′ = (ξ 1 , . . .,ξ n−1 ) und schreiben p ξ ′ für die Polynome p ξ ′(z) =<br />
p(iξ ′ , iz) auf C. Die zugehörigen Nullstellen λ 1 (ξ ′ ), . . .,λ k (ξ ′ ) seien so geordnet,<br />
dass<br />
{<br />
Im λ i (ξ ′ ) < Im λ j (ξ ′ )<br />
o<strong>der</strong><br />
i ≤ j ⇐⇒<br />
Im λ i (ξ ′ ) = Im λ j (ξ ′ ) und Reλ i (ξ ′ ) ≤ Reλ j (ξ ′ ).<br />
Da die Koeffizienten von p ξ ′ stetig von ξ ′ abhängen, lässt sich mit ein wenig<br />
Funktionentheorie nun recht einfach begründen, dass die Abbildungen ξ ′ ↦→ λ i (ξ ′ )<br />
stetig sind. (Das folgt aus dem Satz von Rouché, s. etwa [FL].)<br />
Lemma 4.42 Es gibt eine messbare Funktion φ : R n−1 → [−k, k], so dass<br />
|φ(ξ ′ ) − Im λ j (ξ ′ )| ≥ 1<br />
∀ξ ′ ∈ R n−1 ∀j ∈ {1, . . .,k}.<br />
Beweis. Betrachte die k + 1 Intervalle<br />
[−k − 1, −k + 1), [−k + 1, −k + 3), . . .,[k − 1, k + 1)<br />
Für jedes ξ ′ enthält mindestens eines davon keinen <strong>der</strong> Punkte Im λ 1 (ξ ′ ), . . .,<br />
Im λ k (ξ ′ ). Setzt man also<br />
V m := {ξ ′ : Im λ j (ξ ′ ) /∈ [2m − k − 1, 2m − k + 1) ∀j}, m = 0, 1, . . ., k,<br />
so ist ⋃ m V m = R n−1 . Da die λ j stetig sind, sieht man außerdem leicht, dass die<br />
Mengen V m messbar sind. Dann aber wird durch<br />
φ(ξ ′ ) := 2m − k für ξ ′ ∈ V m \<br />
eine Funktion mit den gesuchten Eigenschaften definiert.<br />
□<br />
Als letzte Vorbereitung benötigen wir die folgende elementare Abschätzung.<br />
70<br />
m−1<br />
⋃<br />
µ=1<br />
V µ
Lemma 4.43 Es sei g(z) = a k z k + . . . + a 1 z + a 0 ein komplexes Polynom mit<br />
|a k | = 1 und Nullstellen λ 1 , . . .,λ k . Dann gilt<br />
|g(0)| ≥ (min<br />
j<br />
|λ j |) k .<br />
Beweis. Wegen g(z) = a k (z − λ 1 ) · . . . · (z − λ n ) ist<br />
|g(0)| = |a k · λ 1 · . . . · λ k | ≥ (min<br />
j<br />
|λ j |) k .<br />
Satz 4.44 (Satz von Malgrange-Ehrenpreis) Je<strong>der</strong> lineare partielle Differentialoperator<br />
mit konstanten Koeffizienten hat eine Fund<strong>am</strong>entallösung.<br />
Beweis. Mit den Bezeichnungen wie zuvor definieren wir E durch<br />
Eϕ := 1<br />
(2π) n 2<br />
∫R n−1 ∫<br />
R+iφ(ξ ′ )<br />
ˆϕ(−ξ)<br />
p(iξ) dξ n dξ ′<br />
für ϕ ∈ D(R n ), wobei ˆϕ gemäß Lemma 4.41 auf C n fortgesetzt ist. Lemma 4.43<br />
angewandt auf g(z) = p(iξ ′ , i(ξ n + z)) = p ξ ′(ξ n + z) zeigt<br />
Es folgt<br />
|Eϕ| ≤ C<br />
≤ C<br />
≤ C<br />
∫R n−1 ∫<br />
R+iφ(ξ ′ )<br />
∫ ∫R n−1<br />
sup<br />
|p(iξ)| ≥ 1 für ξ n ∈ R + iφ(ξ ′ ).<br />
(1 + |ξ|) −n−1 (1 + |ξ|) n+1 | ˆϕ(ξ)| dξ n dξ ′<br />
(1 + |ξ|) −n−1 dξ n dξ ′ · sup<br />
R+iφ(ξ ′ )<br />
∑<br />
|ξ α ˆϕ(ξ)|<br />
{ξ:|Im ξ|≤k}<br />
|α|≤n+1<br />
Wie im Beweis von Lemma 4.41 lässt sich d<strong>am</strong>it<br />
|Eϕ| ≤ C ∑<br />
‖∂ α ϕ‖ L 1 ≤ C ∑<br />
|α|≤n+1<br />
{ξ:|Im ξ|≤k}<br />
|α|≤n+1<br />
‖∂ α ϕ‖ L ∞<br />
|(1 + |ξ|) n+1 ˆϕ(ξ)|<br />
schließen. Dies zeigt, dass E tatsächlich eine Distribution ist.<br />
Wir müssen nun noch nachrechnen, dass E wirklich eine Fund<strong>am</strong>entallösung<br />
von L ist. Es gilt<br />
LE(ϕ) = E(L ′ ϕ) ∀ ϕ ∈ D(R n ),<br />
□<br />
71
wenn L ′ <strong>der</strong> ‘adjungierte Operator’ L ′ = ∑ |α|≤k (−1)|α| a α ∂ α mit Symbol p ′ (ξ) =<br />
∑<br />
|α|≤k (−1)|α| a α ξ α = p(−ξ) ist. Daher ist für Testfunktionen ϕ<br />
LE(ϕ) = 1<br />
(2π) n 2<br />
∫R n−1 ∫<br />
R+iφ(ξ ′ )<br />
̂L ′ ϕ(−ξ)<br />
p(iξ)<br />
Dabei ist ̂L ′ ϕ(−ξ) = p ′ (i(−ξ))ˆϕ(−ξ) = p(iξ)ˆϕ(−ξ), so dass<br />
LE(ϕ) = 1<br />
(2π) n 2<br />
∫R n−1 ∫<br />
R+iφ(ξ ′ )<br />
dξ n dξ ′ .<br />
ˆϕ(−ξ) dξ n dξ ′<br />
gilt. Nun ist z ↦→ ˆϕ(−ξ ′ , −z) nach Lemma 4.41 holomorph und schnell fallend für<br />
|z| → ∞ mit |Im z| ≤ k. Nach dem Cauchyschen Integralsatz ist dann<br />
∫<br />
∫<br />
ˆϕ(−ξ ′ , −z) dz = ˆϕ(−ξ ′ , −z) dz<br />
R+iφ(ξ ′ )<br />
R<br />
und d<strong>am</strong>it schließlich<br />
LE(ϕ) = 1<br />
(2π) n 2<br />
∫<br />
R n ˆϕ(−ξ) dξ = ϕ(0) = δ(ϕ).<br />
□<br />
Korollar 4.45 Es sei L ein linearer partieller Differentialoperator mit konstanten<br />
Koeffizienten, ϕ ∈ D(R n ). Dann existiert eine C ∞ -glatte Lösung von<br />
Lu = ϕ.<br />
Beweis. Setze u = ϕ ∗ E für eine Fund<strong>am</strong>entallösung E.<br />
Wir können nun auch den Satz 4.26 leicht verallgemeinern.<br />
□<br />
Satz 4.46 Es sei L ein linearer partieller Differentialoperator mit konstanten<br />
Koeffizienten. Die folgenden Aussagen sind äquivalent:<br />
(i) Es gibt eine Fund<strong>am</strong>entallösung, die glatt auf R n \ {0} ist.<br />
(ii) Jede Fund<strong>am</strong>entallösung ist glatt auf R n \ {0}.<br />
(iii) L ist hypoelliptisch.<br />
Beweis. (ii) =⇒ (i): Dies folgt aus <strong>der</strong> Existenz von Fund<strong>am</strong>entallösungen, s.<br />
Satz 4.44.<br />
(i) =⇒ (iii): Dies ist gerade die Aussage von Satz 4.26.<br />
(iii) =⇒ (ii): Ist E eine Fund<strong>am</strong>entallösung, so ist LE = 0 auf R n \ {0} und<br />
d<strong>am</strong>it E ∈ C ∞ (R n \ {0}).<br />
□<br />
72
4.5 Sobolevräume und Fouriertransformation<br />
Im Skript PDG 1 haben wir insbeson<strong>der</strong>e die Sobolveräume<br />
H k = H k (R n ) = {u ∈ L 2 : ∂ α u ∈ L 2 ∀ |α| ≤ k}<br />
untersucht. In diesem Abschnitt werden wir H s für beliebige s ∈ R definieren. Insbeson<strong>der</strong>e<br />
wird sich daraus auch die schon im Skript PDG 1 verwendete Schreibweise<br />
H −1 für den Dualraum von H 1 erklären. Dazu benötigen wir zunächst eine<br />
Charakterisierung von H k , die nicht ausnutzt, dass k ∈ N ist. Der Einfachheit<br />
halber beschränken wir uns hier im Wesentlichen auf Funktionen, die auf ganz<br />
R n definiert sind.<br />
Satz 4.47 Sei u ∈ L 2 . Es gilt u ∈ H k genau dann, wenn ξ ↦→ (1+|ξ| 2 ) k 2û(ξ) ∈ L 2<br />
ist. Die Norm<br />
u ↦→ ‖(1 + |ξ| 2 ) k 2û‖L 2<br />
ist äquivalent zur H k -Norm.<br />
Beweis. Aus <strong>der</strong> Formel von Plancherel ergibt sich<br />
∑<br />
‖∂ α u‖ 2 L = ∑<br />
‖̂∂ α u‖ 2 2 L = ∑ ∫<br />
‖ξ α û‖ 2 2 L = 2<br />
|α|≤k<br />
|α|≤k<br />
|α|≤k<br />
(mit ‖T ‖ L 2 = ∞ für T ∈ S ′ \ L 2 ). Nun gilt einerseits<br />
∑<br />
|ξ α | 2 ≤ C(1 + |ξ| 2 ) k<br />
|α|≤k<br />
R n ⎛<br />
(Fallunterscheidung, ob |ξ α | ≤ 1 o<strong>der</strong> > 1), an<strong>der</strong>erseits<br />
⎝ ∑<br />
|α|≤k<br />
|ξ α | 2 ⎞<br />
⎠ |û(ξ)| 2 dξ<br />
(1 + |ξ| 2 ) k ≤ 2 k (1 + |ξ| 2k ) = C(1 + (|ξ 1 | 2 + . . . |ξ n | 2 ) k ) ≤ C ∑<br />
|ξ α | 2 ,<br />
|α|≤k<br />
d.h. c(1+|ξ| 2 ) k ≤ ∑ |α|≤k |ξα | 2 ≤ C(1+|ξ| 2 ) k für geeignete c, C > 0. Daraus folgt<br />
c‖(1 + |ξ| 2 ) k 2û‖<br />
2<br />
L 2 ≤ ‖u‖2 H k ≤ C‖(1 + |ξ| 2 ) k 2û‖<br />
2<br />
L 2.<br />
Dies motiviert die folgende Definition:<br />
□<br />
Definition 4.48 Für s ∈ R setze<br />
H s := H s (R n )<br />
:= {f ∈ S ′ (R n ) : ˆf ∈ L 1 loc(R n ) mit ‖f‖ s := ‖(1 + |ξ| 2 ) s 2 ˆf‖L 2 < ∞}.<br />
73
(Ist g eine Funktion mit (1 + |ξ| 2 ) s 2g ∈ L 2 , dann ist gϕ ∈ L 1 für ϕ ∈ S, so dass g<br />
via ϕ ↦→ ∫ gϕ als temperierte Distribution aufgefasst werden kann. Ein solches g<br />
lässt sich also immer als g = ˆf für ein f ∈ S ′ schreiben.)<br />
Bemerkung 4.49 1. Es gilt H s ⊂ H s′ für s > s ′ .<br />
2. Nach Satz 4.47 stimmt diese Definition mit <strong>der</strong> früheren Definition für<br />
s ∈ N überein (bis auf den Übergang zu einer äquivalenten Norm).<br />
3. H s ist ein Hilbertraum bezüglich<br />
∫<br />
〈f, g〉 s = (1 + |ξ| 2 ) s ˆf(ξ)¯ĝ(ξ) dξ.<br />
Der nächste Satz zeigt, dass (H s ) ′ in kanonischer Weise isomorph zu H −s ist.<br />
Satz 4.50 Sei s ∈ R. Die Abbildung<br />
∫<br />
Φ : H −s → (H s ) ′ mit (Φg)(f) := ( ˆf, ĝ) L 2 =<br />
ˆf¯ĝ<br />
ist ein antilinearer isometrischer Isomorphismus.<br />
Beweis. Zunächst beachte, dass f ∈ H s , g ∈ H −s<br />
ˆf¯ĝ = (1 + |ξ| 2 ) s 2 ˆf · (1 + |ξ| 2 ) − s 2 ¯ĝ ∈ L2 · L 2 ⊂ L 1<br />
impliziert, so dass f ↦→ ∫ ˆf¯ĝ ein stetiges Funktional Φg auf H s definiert mit<br />
∫<br />
∣<br />
ˆf¯ĝ<br />
∣ ≤ ‖(1 + |ξ|2 ) s 2 ˆf‖L 2‖(1 + |ξ| 2 ) − s 2 ¯ĝ‖L 2 = ‖f‖ s ‖g‖ −s .<br />
Da in dieser Ungleichung Gleichheit gilt, wenn ˆf = (1 + |ξ| 2 ) −s ĝ ist, folgt, dass<br />
Φ eine antilineare Isometrie ist.<br />
Es bleibt zu begründen, dass Φ surjektiv ist. Sei dazu 〈·, ˜g〉 s ∈ (H s ) ′ , ˜g ∈ H s .<br />
Dann ist (1 + |ξ| 2 ) sˆ˜g ∈ S ′ und indem wir g = F −1 ((1 + |ξ| 2 ) sˆ˜g) setzen, erhalten<br />
wir g ∈ S ′ mit ĝ = (1 + |ξ| 2 ) sˆ˜g. Es folgt<br />
∫ ∫<br />
(Φg)(f) = ˆf¯ĝ = (1 + |ξ| 2 ) s ˆf¯ˆ˜g = 〈f, ˜g〉 s .<br />
für f ∈ H s .<br />
□<br />
Satz 4.51 Sei s ∈ R, k ∈ N. Dann ist f ∈ H s genau dann, wenn ∂ α f ∈ H s−k<br />
ist für alle |α| ≤ k. Die Normen<br />
⎛ ⎞ 1<br />
‖f‖ s und ⎝ ∑<br />
2<br />
‖∂ α f‖ 2 ⎠<br />
s−k<br />
|α|≤k<br />
sind äquivalent.<br />
74
Beweis. Das geht ähnlich wie <strong>der</strong> Beweis von Satz 4.47.<br />
Beispiele:<br />
1. Es gilt S ⊂ H s für alle s ∈ R. Umgekehrt impliziert <strong>der</strong> Sobolevsche Einbettungssatz<br />
(s. Skript PDG 1 und Satz 4.52 unten), dass ⋂ s∈R Hs ⊂ C ∞ .<br />
√<br />
2 sinx<br />
2. Sei f : R → R gegeben durch f(x) = . Dann ist ˆf = χ<br />
π x (−1,1) und<br />
d<strong>am</strong>it f ∈ H s für alle s. Beachte aber, dass f nicht in S liegt.<br />
3. Im R n gilt ˆδ = 1<br />
‖δ‖ 2 s = 1<br />
(2π) n 2<br />
(2π) n 2<br />
∫<br />
. D<strong>am</strong>it ist<br />
(1 + |ξ| 2 ) s dξ = |∂B 1(0)|<br />
R n (2π) n 2<br />
∫ ∞<br />
genau dann, wenn 2s + n − 1 < −1, also wenn s < − n 2 ist.<br />
0<br />
(1 + r 2 ) s r n−1 dr < ∞<br />
Der Sobolevsche Einbettungssatz für die Räume H s lautet wir folgt.<br />
Satz 4.52 Für s > k + n 2 gilt Hs ֒→ C k .<br />
Für s ∈ N haben wir diesen Satz schon im Skript PDG 1 bewiesen. In <strong>der</strong><br />
Tat ist <strong>der</strong> folgende Beweis für allgemeine s mit Hilfe <strong>der</strong> Fouriertransformation<br />
sogar einfacher (funktioniert aber nicht in <strong>der</strong> allgemeinen Form für W k,p , p ≠ 2).<br />
Beweis. Wegen F −1 : L 1 (R n ) → C(R n ) mit ‖F −1 g‖ L ∞ ≤ ‖g‖ L 1, genügt es zu<br />
zeigen, dass für alle Multiindizes α mit |α| ≤ k gilt<br />
da<br />
f ∈ H s =⇒ ̂∂ α f ∈ L 1 mit ‖̂∂ α f‖ L 1 ≤ C‖f‖ s .<br />
Dies sieht man wie folgt:<br />
∫<br />
|ξ α ˆf(ξ)| dξ ≤ C<br />
∫<br />
∫<br />
= C<br />
≤ C‖f‖ s<br />
(∫<br />
∫ ∞<br />
0<br />
(1 + |ξ| 2 ) k 2 | ˆf(ξ)| dξ<br />
(1 + |ξ| 2 ) s 2 | ˆf(ξ)| · (1 + |ξ| 2 ) k−s<br />
2 dξ<br />
(1 + |ξ| 2 ) k−s dξ<br />
(1 + r 2 ) k−s r n−1 dr < ∞<br />
)1<br />
2<br />
≤ C‖f‖s ,<br />
ist für 2(k − s) + n − 1 < −1 ⇐⇒ s > k + n.<br />
□<br />
2<br />
Im Skript PDG 1 haben wir auch die Spurabbildung für Sobolev-Funktionen<br />
untersucht. Dabei stellte sich heraus, dass W 1,p -Funktionen auf (hinreichend gutartigen)<br />
Mengen <strong>der</strong> Kodimension 1 immer noch als L p -Funktionen wohldefiniert<br />
sind. Es ist nun interessant, die Spurabbildung auf H s näher zu betrachten. Der<br />
Einfachheit halber beschränken wir uns hier auf die Restriktion auf eine Hyperebene.<br />
Der folgende Satz zeigt, dass man pro Dimension in <strong>der</strong> Tat nur eine halbe<br />
Differenzierbarkeitsordnung verliert.<br />
75<br />
□
Satz 4.53 Seien k ∈ N und s ∈ R mit s > k . Es gibt eine stetige lineare<br />
2<br />
Spurabbildung T : H s (R n ) → H s− k 2(R n−k ) mit<br />
(Tf)(y) = f(y, 0) ∀ y ∈ R n−k ∀ f ∈ S.<br />
Der Beweis benötigt das folgende Dichtheitsresultat, das von eigenständigem<br />
Interesse ist:<br />
Lemma 4.54 Für alle s ∈ R ist S dicht in H s .<br />
Beweis. Ist f ∈ H s , so ist (1 + |ξ| 2 ) s 2 ˆf ∈ L 2 und zu ε > 0 existiert ein ψ ∈ D mit<br />
‖(1 + |ξ| 2 ) s 2 ˆf − ψ‖L 2 < ε. Dann ist aber auch ϕ = (1 + |ξ| 2 ) − s 2ψ ∈ D ⊂ S und<br />
somit F −1 ϕ ∈ S mit<br />
‖f − F −1 ϕ‖ s = ‖(1 + |ξ| 2 ) s 2 ˆf − (1 + |ξ| 2 ) s 2 ϕ‖L 2 = ‖(1 + |ξ| 2 ) s 2 ˆf − ψ‖L 2 < ε.<br />
Beweis von Satz 4.53. Definiere T : S(R n ) → S(R n−k ) durch (Tf)(y) = f(y, 0).<br />
Dann ist<br />
∫<br />
1<br />
(<br />
e iη·y ̂Tf(η) dη = Tf(y) = f(y, 0) = F −1 Ff ) (y, 0)<br />
(2π) n−k<br />
2 R n−k = 1 ∫<br />
e i(y,0)·(η,ζ) ˆf(η, ζ) d(η, ζ)<br />
(2π) n 2<br />
R n (<br />
)<br />
1<br />
= e<br />
∫R iη·y 1<br />
ˆf(η, ζ) dζ dη.<br />
n−k (2π) k 2<br />
∫R k<br />
(2π) n−k<br />
2<br />
Fouriertransformation auf R n−k liefert<br />
Es folgt<br />
|̂Tf(η)| 2 = 1<br />
(2π) k (∫<br />
≤ 1<br />
(2π) k ∫<br />
̂Tf(η) = 1<br />
(2π) k 2<br />
∫<br />
R k ˆf(η, ζ) dζ.<br />
) 2<br />
ˆf(η, ζ)(1 + |η| 2 + |ζ| 2 ) s 2 · (1 + |η| 2 + |ζ| 2 ) − s 2 dζ<br />
R k ∫<br />
| ˆf(η, ζ)| 2 (1 + |η| 2 + |ζ| 2 ) s dζ (1 + |η| 2 + |ζ| 2 ) −s dζ.<br />
R k R k<br />
Mit 1 + |η| 2 =: a 2 und <strong>der</strong> Substitution t = r errechnet sich das letzte Integral<br />
a<br />
zu ∫ ∞<br />
∫ ∞<br />
C (a 2 + r 2 ) −s r k−1 dr = Ca k−2s (1 + t 2 ) −s t k−1 dt = Ca k−2s ,<br />
0<br />
0<br />
□<br />
76
denn es ist −2s + k − 1 < −1 wegen s > k . Wir haben demnach<br />
2<br />
∫<br />
|̂Tf(η)| 2 ≤ C(1 + |η| 2 ) k−2s<br />
2 | ˆf(η, ζ)| 2 (1 + |η| 2 + |ζ| 2 ) s dζ<br />
R k<br />
und also<br />
∫<br />
(1 + |η| 2 ) s− k 2 |̂Tf(η)| 2 ≤ C ˆf(η, ζ)(1 + |η| 2 + |ζ| 2 ) s dζ.<br />
R k<br />
Daraus ergibt sich durch Integration nach η<br />
‖Tf‖ s−<br />
k<br />
2<br />
≤ C‖f‖ s .<br />
Nach Lemma 4.54 lässt sich T nun (eindeutig) zu einer stetigen Abbildung T :<br />
H s (R n ) → H s− k 2(R n−k ) fortsetzen.<br />
□<br />
Wir erwähnen noch, wie man H s -Distributionen auf allgemeineren Gebieten<br />
Ω erklärt. Beachte, dass f ↦→ ϕf ein stetiger Operator auf allen H s ist für ϕ ∈ S.<br />
Für Ω ⊂ R n offen setzt man<br />
H s loc (Ω) := {T ∈ D′ (Ω) : ∀ U ⊂⊂ Ω ∃f ∈ H s (R n ) mit T = S auf U}.<br />
Es gilt dann T ∈ H s loc (Ω) ⇐⇒ ϕT ∈ Hs (R n ) ∀ ϕ ∈ D(Ω).<br />
Wie für natürliche Exponenten definiert man<br />
H s 0 (Ω) := C∞ c (Ω)<br />
(Abschluss in <strong>der</strong> H s -Norm).<br />
Ist schließlich ∂Ω hinreichend gutartig (z.B. Lipschitz), so kann man auch<br />
H s (Ω) durch Einschränkung auf Ω definieren.<br />
4.6 Distributionen aus funktionalanalytischer Sicht<br />
Zum Schluss dieses Kapitels gehen wir noch kurz auf die funktionalanalytische<br />
Sicht auf die Theorie <strong>der</strong> Distributionen ein. Dabei setzen wir einige Resultate aus<br />
<strong>der</strong> Theorie <strong>der</strong> lokalkonvexen Räume als bekannt voraus. Beweise dazu finden<br />
sich etwa in [We].<br />
Zur Erinnerung: Ein topologischer Vektorraum X (also ein Vektorraum, <strong>der</strong><br />
mit einer Topologie versehen ist, bezüglich <strong>der</strong> die Skalarmultiplikation und die<br />
Vektoraddition stetig sind) ist ein lokalkonvexer Raum, wenn es eine F<strong>am</strong>ilie P<br />
von Halbnormen gibt, so dass<br />
{<br />
{x ∈ X : p(x) < ε ∀ p ∈ F } : F ⊂ P endlich, ε > 0<br />
}<br />
eine Nullumgebungsbasis ist. Umgekehrt induziert jede F<strong>am</strong>ilie P von Halbnormen<br />
auf einem Vektorraum X eine lokalkonvexe Topologie auf X.<br />
Beispiele:<br />
77
1. Sei Ω ⊂ R n offen, K ⊂ Ω kompakt. Setze<br />
und<br />
D K (Ω) := {ϕ ∈ D(Ω) : supp ϕ ⊂ K}<br />
P = {p α : α ein Multiindex}, p α (ϕ) = ‖∂ α ϕ‖ ∞ .<br />
Dann erzeugt P eine lokalkonvexe Topologie τ K auf D K (Ω).<br />
2. Betrachte nun D(Ω). Es sei τ K die in 1. definierte Topologie auf D K (Ω).<br />
Setze dann<br />
P := { p Halbnorm auf D(Ω) : P |DK (Ω) ist stetig bzgl. τ K<br />
}<br />
.<br />
Dies erzeugt eine lokalkonvexe Topologie τ auf D(Ω).<br />
Wir erinnern noch an die folgenden beiden allgemeinen Tatsachen über lokalkonvexe<br />
Räume:<br />
Lemma 4.55 Es sei X ein von P erzeugter lokalkonvexer Raum.<br />
(i) Alle p ∈ P sind stetig.<br />
(ii) Ist P ⊂ Q ⊂ {q stetige Halbnorm auf X}, so erzeugt Q die gleiche lokalkonvexe<br />
Topologie wie P.<br />
(iii) Sei q eine Halbnorm auf X. Dann gilt<br />
q stetig ⇐⇒ ∃ p 1 , . . .,p N ∈ P, C > 0 mit q ≤ C max<br />
1≤i≤N p i.<br />
Lemma 4.56 Es sei X ein von P erzeugter lokalkonvexer Raum, T ein lineares<br />
Funktional auf X. Dann sind äquivalent:<br />
(i) T ist stetig.<br />
(ii) T ist stetig bei 0.<br />
(iii) Es gibt p 1 , . . .,p N ∈ P, C > 0, so dass für alle x ∈ X<br />
gilt.<br />
|Tx| ≤ C max<br />
1≤i≤N p i(x)<br />
Wie bei Banachräumen bezeichnet man die Menge <strong>der</strong> stetigen Funktionale<br />
auf X mit X ′ . Für die oben eingeführten lokalkonvexen Räume D K (Ω) und D(Ω)<br />
mit Topologien τ K bzw. τ ergibt sich nun<br />
Lemma 4.57 (i) Die Relativtopologie von τ auf D K (Ω) ist τ K .<br />
78
(ii) Ein lineares Funktional T auf D(Ω) ist genau dann stetig, wenn die Restriktionen<br />
T |DK (Ω) auf D K (Ω) stetig sind für alle K ⊂ Ω kompakt.<br />
Beweis. (i) Das folgt ‘relativ leicht’ aus Lemma 4.55(ii).<br />
(ii) Dass die Bedingung notwendig ist, folgt aus (i). Die Umkehrung ergibt sich<br />
aus den Lemmas 4.56 und 4.55: Für jedes K gibt es Halbnormen p 1 , . . .,p N , C > 0<br />
mit |Tϕ| ≤ C max 1≤i≤N p i (ϕ) für alle ϕ ∈ D K (Ω). D<strong>am</strong>it ist aber ϕ ↦→ |Tϕ| eine<br />
stetige Halbnorm auf allen D K (Ω). Nach Konstruktion von τ ist daher T stetig<br />
auf D(Ω).<br />
□<br />
Satz 4.58 Es seien ϕ, ϕ 1 , ϕ 2 , . . . ∈ D(Ω). Dann sind äquivalent:<br />
(i) ϕ m → ϕ bezüglich τ.<br />
(ii) Es gibt eine kompakte Menge K ⊂ Ω, so dass supp ϕ, supp ϕ m ⊂ K für alle<br />
m gilt und<br />
∂ α ϕ m → ∂ α ϕ<br />
gleichmäßig konvergiert für alle Multiindizes α.<br />
(iii) Es gibt eine kompakte Menge K ⊂ Ω, so dass ϕ, ϕ m ∈ D K (Ω) für alle m<br />
gilt und ϕ m → ϕ bezüglich τ K konvergiert.<br />
Dieser Satz zeigt, dass die in Definition 4.2 definierte Konvergenz auf D(Ω)<br />
gerade die Konvergenz im lokalkonvexen Raum (D(Ω), τ) ist.<br />
Beweis. (ii) ⇐⇒ (iii) ist klar und (iii) =⇒ (i) ergibt sich direkt aus Lemma<br />
4.57(i). Es bleibt (i) =⇒ (iii) zu beweisen. Dazu wie<strong>der</strong>um genügt es zu zeigen,<br />
dass K ⊂ Ω kompakt mit ϕ, ϕ m ∈ D K (Ω) für alle m existiert.<br />
Um einen Wi<strong>der</strong>spruch herzuleiten, nehmen wir an, ein solches K gebe es<br />
nicht. Wähle kompakte Mengen K 1 ⊂ K 2 ⊂ . . . ⊂ Ω mit ⋃ m K m = Ω (etwa<br />
K m = {x ∈ Ω : dist(x, ∂Ω) ≥ m −1 , |x| ≤ m}). Dann gibt es eine Teilfolge (wie<strong>der</strong><br />
mit m indiziert), so dass ϕ m ∈ D Km (Ω) \ D Km−1 (Ω) ist. Wähle x m ∈ K m \ K m−1<br />
mit |ϕ m (x m )| = c m ≠ 0.<br />
Da für alle c > 0, y ∈ Ω die Abbildung ϕ ↦→ c|ϕ(y)| eine stetige Halbnorm<br />
auf D(Ω) ist, ist auch<br />
c −1<br />
m |ϕ(x m )|<br />
p(ϕ) := ∑ m<br />
eine stetige Halbnorm auf D(Ω). (Beachte, dass für jede kompakte Menge K ⊂ Ω<br />
ein m mit K ⊂ K m existiert, diese Summe also endlich auf D K (Ω) ist. Da die<br />
Einschränkung von p auf D K (Ω) offenbar stetig ist, ergibt sich die Stetigkeit auf<br />
D(Ω) direkt aus <strong>der</strong> Konstruktion <strong>der</strong> Topologie auf D(Ω).)<br />
Nun ist aber ϕ m − ϕ → 0 =⇒ p(ϕ m − ϕ) → 0 im Wi<strong>der</strong>spruch zu<br />
p(ϕ m − ϕ) ≥ c −1<br />
m |ϕ m (x m ) − ϕ(x m )| = c −1<br />
m |ϕ m (x m )| = 1<br />
79
für hinreichend großes m.<br />
Wir können nun den Raum <strong>der</strong> Distributionen D ′ (Ω) als den funktionalanalytischen<br />
Dualraum des lokalkonvexen Raums D(Ω) identifizieren.<br />
Satz 4.59 Es sei T ein lineares Funktional auf D(Ω). Dann sind äquivalent:<br />
(i) T ist stetig. (D.h. T ∈ D ′ (Ω) im funktionalanalytischen Sinne.)<br />
(ii) Für alle kompakte K ⊂ Ω existieren C > 0, N ∈ N mit<br />
|Tϕ| ≤ C ∑<br />
‖∂ α ϕ‖ ∞ .<br />
|α|≤N<br />
(D.h. T ∈ D ′ (Ω) im PDG-Sinne, s. Definition 4.1.)<br />
(iii) ϕ k → 0 in D(Ω) impliziert Tϕ k → 0.<br />
Beweis. (ii) ⇐⇒ (iii) haben wir schon in Satz 4.3 gezeigt.<br />
(i) =⇒ (iii) ist klar.<br />
(iii) =⇒ (i): Nach (iii) ist T folgenstetig, insbeson<strong>der</strong>e auf jedem D K (Ω),<br />
K ⊂ Ω kompakt. Die Topologie auf D K (Ω) ist jedoch metrisierbar, da von einer<br />
abzählbaren F<strong>am</strong>ilie von Halbnormen induziert (Übung). Daher ist T |DK (Ω) stetig.<br />
Mit Lemma 4.57 folgt nun, dass T stetig ist.<br />
□<br />
□<br />
80
Kapitel 5<br />
Variationsmethoden für<br />
vektorwertige Probleme<br />
Im letzten Kapitel widmen wir uns wie<strong>der</strong> einer beson<strong>der</strong>en Klasse nicht-linearer<br />
Probleme: Wir untersuchen Funktionale auf (Teilmengen von) Funktionenräumen<br />
auf die Existenz von Minimierern. Unter geeigneten Voraussetzungen erfüllen<br />
diese Minimierer eine PDG, die sich aus dem betrachteten Funktional ableitet,<br />
die Euler-Lagrange-Gleichung.<br />
Im Skript PDG 1, Kap. 5.4 hatten wir uns bereits mit Problemen dieser Art<br />
beschäftigt. Dort war I ein Funktional von <strong>der</strong> Form<br />
∫<br />
I(u) = f(x, u(x), Du(x))<br />
U<br />
auf einer Teilmenge des Sobolevraums W 1,p (U), U ⊂ R n offen, zu minimieren.<br />
Im Unterschied hierzu wollen wir nun vektorwertige Probleme untersuchen, d.h.<br />
Funktionale auf (Teilmengen von) W 1,p (U; R m ). Wie im Skript PDG 1 wollen wir<br />
Minimierer mit <strong>der</strong> sog. direkten Methode finden.<br />
Es stellt sich nun heraus, dass die Situation für vektorwertige Probleme wesentlich<br />
komplizierter ist als im skalaren Fall. Die skalaren Ergebnisse lassen sich<br />
zwar unschwer auf den allgemeinen Fall übertragen. Doch dies führt in den Anwendungen<br />
zu viel zu starken Voraussetzungen. Im Falle <strong>der</strong> dreidimensionalen<br />
Elastizitätstheorie werden wir sehen, dass man tatsächlich neue Konzepte<br />
benötigt, um physikalisch relevante Probleme behandeln zu können.<br />
5.1 Euler-Lagrange-Gleichung<br />
Wir untersuchen zunächst den Zus<strong>am</strong>menhang zwischen Minimierern und <strong>der</strong><br />
Euler-Lagrange-Gleichung, <strong>der</strong> fast völlig analog zum skalaren Fall verläuft (vgl.<br />
Skript PDG 1).<br />
81
Es sei U ⊂ R n offen und beschränkt und<br />
f : U × R m × R m×n → R ∪ {∞},<br />
(x, y, z) = (x 1 , . . .,x n , y, z 11 , z 12 , . . .,z mn ) ↦→ f(x, y, z)<br />
eine glatte Funktion. Betrachte das Funktional<br />
∫<br />
I(u) = f(x, u(x), Du(x)) dx.<br />
Erfüllt f die Wachstumsbedingung<br />
U<br />
|f(x, y, z)| ≤ C (1 + |y| p + |z| p ) ,<br />
für ein 1 ≤ p < ∞, so ist es natürlich, den Sobolevraum W 1,p (U) (o<strong>der</strong> einen Teilraum<br />
davon) als Definitionsbereich von I anzunehmen. Da wir auch Randwertprobleme<br />
betrachten wollen, nehmen wir an, dass ∂U C 1 -glatt 1 ist und betrachten<br />
I auf<br />
A = A g := {u ∈ W 1,p (U; R m ) : u = g auf ∂U im Spursinne}<br />
= {u ∈ W 1,p (U) : u − g ∈ W 1,p<br />
0 (U; R m )},<br />
wobei g eine gegebene Funktion in W 1,p (U; R m ) sei.<br />
Es sei nun u eine Minimalstelle von I. Ist dann v ∈ W 1,p<br />
0 (U; R m ), so ist auch<br />
u + tv = g auf ∂U für t ∈ R und die Funktion<br />
t ↦→ i(t) := I(u + tv)<br />
nimmt bei t = 0 ein Minimum an. Wenn also i differenzierbar ist, muss i ′ (0) = 0<br />
gelten. Um dies nachzuweisen, nehmen wir zusätzlich an, dass f die Wachstumsbedingungen<br />
|D y f(x, y, z)|, |D z f(x, y, z)| ≤ C ( 1 + |y| p−1 + |z| p−1)<br />
für x ∈ U, y ∈ R m , z ∈ R m×n erfüllt. Dann ist nach <strong>der</strong> Youngschen Ungleichung<br />
(also ab ≤ ap<br />
+ bq für a, b ≥ 0, 1 + 1 = 1)<br />
p q p q ∣ d<br />
∣∣∣<br />
∣dt f(x, u(x) + tv(x), Du(x) + tDv(x))<br />
= |D y f(x, u(x) + tv(x), Du(x) + tDv(x)) v(x)<br />
+ D z f(x, u(x) + tv(x), Du(x) + tDv(x))Dv(x)|<br />
≤ C(1 + |u(x) + tv(x)| p−1 + |Du(x) + tDv(x)| p−1 )(|v(x)| + |Dv(x)|)<br />
≤ C(1 + |u(x) + tv(x)| p + |Du(x) + tDv(x)| p ) + C(|v(x)| p + |Dv(x)| p )<br />
≤ C(1 + |u(x)| p + |Du(x)| p ) + C(|v(x)| p + |Dv(x)| p )<br />
1 Es würde auch reichen anzunehmen, dass U einen Lipschitz-Rand hat.<br />
82
für |t| ≤ 1. Die letzte Funktion ist unabhängig von t ∈ (−1, 1) und integrierbar.<br />
Wir dürfen also unter dem Integral differenzieren und erhalten<br />
∫<br />
0 = i ′ d<br />
(0) =<br />
U dt∣ f(x, u(x) + tv(x), Du(x) + tDv(x)) dx<br />
t=0<br />
∫ n∑<br />
m∑ n∑<br />
= ∂ yi f(x, u(x), Du(x))v i (x) + ∂ zij f(x, u(x), Du(x))∂ j v i (x) dx.<br />
U<br />
i=1<br />
Durch diese Rechnung und partielle Integration motiviert definieren wir:<br />
Definition 5.1 Wir sagen u ∈ A ist eine schwache Lösung des Randwertproblems<br />
i=1<br />
j=1<br />
− div(D z f(x, u(x), Du(x)) + D y f(x, u(x), Du(x)) = 0 in U,<br />
u = g auf ∂U.<br />
wenn<br />
∫<br />
D y f(x, u(x), Du(x)) · v(x) + D z f(x, u(x), Du(x)) : Dv(x) dx = 0<br />
U<br />
für alle v ∈ W 1,p<br />
0 (U; R m ).<br />
Hier ist D z f als m × n Matrix mit den Einträgen ∂ zij f zu verstehen. (Das Skalarprodukt<br />
im Matrizenraum wird oft mit einem Doppelpunkt bezeichnet. Für<br />
A = (a ij ), B = (b ij ) ∈ R m×n ist A : B := ∑ m ∑ n<br />
i=1 j=1 a ij b ij = Spur(A T B).) In<br />
Indexschreibweise entspricht das den m Gleichungen<br />
− ∑ j<br />
∂ j ∂ zi jf(x, u(x), Du(x)) + ∂ yi f(x, u(x), Du(x)) = 0 für i = 1, . . ., m.<br />
Unsere Rechnung von oben zeigt dann:<br />
Satz 5.2 Es sei f : U × R m × R m×n → R eine glatte Funktion, die den Wachstumsbedingungen<br />
|f(x, y, z)| ≤ C (1 + |y| p + |z| p ),<br />
|D y f(x, y, z)|, |D z f(x, y, z)| ≤ C ( 1 + |y| p−1 + |z| p−1)<br />
für alle x ∈ U, y ∈ R m , z ∈ R m×n genügt. Ist dann I(u) = min v∈A I(v), so ist u<br />
eine schwache Lösung des Randwertproblems<br />
− div(D z f(x, u(x), Du(x)) + D y f(x, u(x), Du(x)) = 0 in U,<br />
u = g auf ∂U.<br />
Bemerkung 5.3 Die PDG<br />
− div(D z f(x, u(x), Du(x)) + D y f(x, u(x), Du(x)) = 0<br />
heißt die zum Funktional I gehörige Euler-Lagrange-Gleichung. Diese Gleichung<br />
ist eine PDG in Divergenzform.<br />
83
Beispiel: Ein genuin vektorwertiges variationelles Problem ist das Auffinden von<br />
Deformationen kleiner Energie in <strong>der</strong> dreidimensionalen Elastizitätstheorie. Es sei<br />
U ⊂ R 3 ein elastischer Körper, U ⊂ R 3 offen und beschränkt. Ordnet man jedem<br />
Punkt x aus U einen Punkt y(x) ∈ R 3 zu, so wird dadurch eine Deformation y<br />
definiert. Die zur Deformation y nötige Energie, die aus den lokalen Verzerrungen<br />
herrührt, ist für sog. hyperelastische Materialien durch ein Integralfunktional von<br />
<strong>der</strong> Form<br />
∫<br />
E(y) = W(x, Dy(x)) dx<br />
U<br />
gegeben. Hierbei ist W die gespeicherte Energiedichte, die im Falle homogener<br />
Materialien nicht explizit von x abhängt. Die Abhängigkeit von y dutch den Deformationsgradienten<br />
Dy erklärt sich dadurch, dass Dy gerade die lokalen Verzerrungen<br />
des Körpers misst, die die elastische Energie speichern. Ein Minimierer<br />
von E in <strong>der</strong> Klasse A beschreibt dann die energetisch günstigste Konfiguration,<br />
die die vorgegebenen Randwerte realisiert.<br />
5.2 Die direkte Methode<br />
Mit <strong>der</strong> direkten Methode <strong>der</strong> Variationsrechnung lässt sich unter geeigneten Voraussetzungen<br />
die Existenz von Minimierern bestimmter Funktionale ‘direkt’ zeigen,<br />
ohne die zugehörigen Euler-Lagrange-Gleichungen zu untersuchen. Wir wie<strong>der</strong>holen<br />
zunächst das allgemeine Prinzip, das schon im Skript PDG 1 vorgestellt<br />
wurde.<br />
Es sei I : X → R ein Funktional auf einem metrischen (o<strong>der</strong> auch nur topologischen)<br />
Raum X. Ist I nach unten beschränkt, so kann man eine Minimalfolge<br />
(u n ) betrachten, d.h. eine Folge (u n ) mit<br />
lim I(u n) = inf I(v).<br />
n→∞ v∈X<br />
Nun würde man gerne folgern, dass (u n ) (o<strong>der</strong> auch nur eine Teilfolge) gegen<br />
ein u ∈ X konvergiert. Im Allgemeinen ist jedoch die Annahme, dass etwa X<br />
kompakt ist, viel zu stark. Da auf Minimalfolgen die Werte I(u n ) beschränkt<br />
sind, genügt es vielmehr zu for<strong>der</strong>n, dass die Niveaumengen {v : I(v) ≤ c},<br />
c ∈ R, relativ kompakt (bzw. relativ folgenkompakt) sind. Ist dies gewährleistet,<br />
können wir in <strong>der</strong> Tat u n → u annehmen.<br />
Nun möchten wir noch u als Minimierer von I identifizieren. Ohne jede Voraussetzung<br />
an I ist das sicher falsch. Ist aber I unterhalbstetig (bzw. unterhalbfolgenstetig),<br />
so ist<br />
inf I(v) = lim I(u n) = lim inf I(u n ) ≥ I(u) ≥ inf I(v)<br />
v∈X n n<br />
v∈X<br />
und d<strong>am</strong>it tatsächlich I(u) = inf v∈X I(v).<br />
84
Sei wie<strong>der</strong> f : U × R m × R m×n → R glatt, U ⊂ R n offen mit C 1 - (o<strong>der</strong><br />
Lipschitz-)Rand, und I das Funktional<br />
∫<br />
I(u) = f(x, u(x), Du(x)) dx<br />
U<br />
auf dem Raum A = A g = {u ∈ W 1,p (U) : u = g im Spursinne} <strong>der</strong> zulässigen<br />
Funktionen. Genau wie im skalaren Fall (vgl. Skript PDG 1), ergeben sich die nötigen<br />
Kompaktheitseigenschaften <strong>der</strong> Niveaumengen aus Koerzivitätsannahmen an<br />
f.<br />
Lemma 5.4 Erfüllt f die Wachstumsbedingung<br />
f(x, y, z) ≥ c 1 |z| p − c 2<br />
für geeignete Konstanten c 1 > 0, c 2 ∈ R, p ∈ (1, ∞), so ist {v ∈ A : I(v) ≤ c}<br />
schwach relativ folgenkompakt für jedes c ∈ R.<br />
Beachte, dass unter dieser Wachstumsbedingung I auf A wohldefiniert ist,<br />
wenn man den Wert I(u) = +∞ zulässt.<br />
Beweis. Ist v ∈ A mit I(v) ≤ c, so gilt<br />
∫<br />
∫<br />
c 1 |Dv(x)| p dx ≤ f(x, v(x), Dv(x)) + c 2 dx = I(v) + c 2 |U| ≤ c + c 2 |U|.<br />
U<br />
U<br />
Nach <strong>der</strong> Poincaréschen Ungleichung ist dann auch<br />
‖v‖ L p ≤ ‖v − g‖ L p + ‖g‖ L p ≤ C‖D(v − g)‖ L p + ‖g‖ L p<br />
≤ C(‖Dv‖ L p + ‖Dg‖ L p) + ‖g‖ L p.<br />
beschränkt.<br />
Ist daher (u k ) eine Folge in {v ∈ A : I(u) ≤ c}, so ist (u k ) beschränkt in<br />
W 1,p (U). Da L p reflexiv ist, existieren also u, v 1 , . . .v n ∈ L p (U), so dass u kj ⇀ u<br />
und ∂ i u kj ⇀ v i für eine geeignete Teilfolge u kj . Da für ϕ ∈ C ∞ c (U) gilt ∫ v i ϕ =<br />
lim j<br />
∫<br />
∂i u kj ϕ = − lim j<br />
∫<br />
ukj ∂ i ϕ = − ∫ u ∂ i ϕ, ist tatsächlich v i = ∂ i u und es gilt<br />
u kj ⇀ u, Du kj ⇀ Du in L p .<br />
Weil die Spurabbildung stetig ist, ist auch u = g auf ∂U, so dass u ∈ A gilt. □<br />
Auch die Unterhalbstetigkeit kann man wie im skalaren Fall folgern, wenn f<br />
konvex ist. Wir werden jedoch gleich im Anschluss an den folgenden Satz sehen,<br />
dass im vektorwertigen Fall die Annahme f sei konvex für wichtige Anwendungen<br />
zu restriktiv ist.<br />
85
Lemma 5.5 Es sei f : U ×R m ×R m×n → R eine glatte, nach unten beschränkte<br />
Funktion, so dass<br />
z ↦→ f(x, y, z)<br />
konvex ist für alle x ∈ U, y ∈ R m . Dann ist I schwach unterhalbfolgenstetig auf<br />
W 1,p (U; R m ).<br />
Beweis. Es sei (u k ) eine Folge mit u k ⇀ u in W 1,p (U; R m ), d.h. u k ⇀ u in<br />
L p (U; R m ) und Du k ⇀ Du in L p (U; R m×n ). Es ist zu zeigen, dass m := lim inf k→∞<br />
I(u k ) ≥ I(u). Nach Übergang zu einer Teilfolge (wie<strong>der</strong> mit (u k ) bezeichnet)<br />
können wir annehmen, dass m = lim k→∞ I(u k ) ist.<br />
Aus dem Satz von Rellich-Kondrachov folgt u k → u stark in L p . Indem wir<br />
zu einer Teilfolge (wie<strong>der</strong> mit (u k ) bezeichnet) übergehen, können wir außerdem<br />
u k → u fast überall annehmen.<br />
Nach dem Satz von Egorov 2 existiert nun zu jedem j ∈ N eine Menge A j , so<br />
dass<br />
u k → u gleichmäßig auf A j und |U \ A j | ≤ j −1 .<br />
Dabei können wir natürlich A j so wählen, dass A j+1 ⊃ A j . Wähle nun noch<br />
Mengen B j := {x ∈ U : |u(x)|+|Du(x)| ≤ j} und beachte, dass lim j→∞ |U \B j | =<br />
0, da |u| + |Du| integrierbar ist. Dann aber ist auch lim j→∞ |U \ (A j ∩ B j )| = 0.<br />
Da f nach unten beschränkt ist, können wir nach Addition mit einer geeigneten<br />
Konstanten annehmen, dass f ≥ 0 gilt. Aus <strong>der</strong> Konvexität von f in z<br />
erhalten wir für jedes j:<br />
∫<br />
∫<br />
I(u k ) = f(x, u k , Du k ) dx ≥ f(x, u k , Du k ) dx<br />
U<br />
A j ∩B<br />
∫<br />
j<br />
≥ f(x, u k , Du) + D z f(x, u k , Du) · (Du k − Du) dx.<br />
A j ∩B j<br />
Auf A j ∩B j konvergieren nun f(x, u k , Du) und D z f(x, u k , Du) gleichmäßig gegen<br />
f(x, u, Du) bzw. D z f(x, u, Du). Da zudem Du k schwach gegen Du konvergiert,<br />
ergibt sich<br />
∫<br />
m = lim I(u k ) ≥ f(x, u, Du) dx.<br />
k→∞<br />
A j ∩B j<br />
Da f ≥ 0 vorausgesetzt ist, folgt nun mit monotoner Konvergenz (wegen<br />
A j+1 ∩ B j+1 ⊃ A j ∩ B j )<br />
∫<br />
m ≥ lim f(x, u, Du) dx = I(u).<br />
j→∞<br />
A j ∩B j<br />
2 Der Satz von Egorov besagt: Ist U ⊂ R n messbar mit |U| < ∞ und f k eine Funktionenfolge<br />
mit f k → f fast überall, so gibt es zu jedem ε > 0 eine Menge A ε mit |U \ A ε | ≤ ε, so dass<br />
f k → f gleichmäßig auf A ε konvergiert. (Dieser Satz wird in <strong>der</strong> Maßtheorie bewiesen.)<br />
86<br />
□
Korollar 5.6 Es sei f : U × R m × R m×n → R eine glatte Funktion, die die<br />
Wachstumsbedingung<br />
f(x, y, z) ≥ c 1 |z| p − c 2<br />
für geeignete Konstanten c 1 > 0, c 2 ∈ R, p ∈ (1, ∞) erfülle, so dass<br />
z ↦→ f(x, y, z)<br />
konvex ist für alle x ∈ U, y ∈ R m . Dann existiert ein u ∈ A mit<br />
I(u) = inf<br />
v∈A I(v).<br />
Beweis. Das folgt mit <strong>der</strong> direkten Methode aus Lemma 5.4 und Lemma 5.5. □<br />
Insbeson<strong>der</strong>e ist <strong>der</strong> Minimierer nach Satz 5.2 eine schwache Lösung <strong>der</strong><br />
Euler-Lagrange-Gleichungen unter geeigneten Wachstumsbedingungen an f und<br />
D (y,z) f.<br />
Beispiel: Um einzusehen, dass Konvexität i.A. eine zu starke Annahme ist, betrachten<br />
wir wie<strong>der</strong> das Energiefunktional<br />
∫<br />
E(y) = W(Dy)<br />
aus dem vorigen Beispiel. Liegen in <strong>der</strong> Ausgangslage (<strong>der</strong> sog. Referenzkonfiguration)<br />
keine internen Verspannungen vor, so wird man nach geeigneter Normierung<br />
annehmen dürfen, dass W ≥ 0 ist und W(F) = 0 ist, wenn F die Einheitsmatrix<br />
F = Id ist. Da reine Drehungen keine elastische Energie kosten sollten, sollte W<br />
sogar auf ganz SO(3) verschwinden. Wäre nun W konvex, so wäre<br />
⎛⎛<br />
⎞⎞<br />
⎛⎛<br />
⎞⎞<br />
⎛⎛<br />
⎞⎞<br />
0 0 0<br />
0 ≤ W ⎝⎝0 0 0⎠⎠ ≤ 1 −1 0 0<br />
2 W ⎝⎝<br />
0 −1 0⎠⎠ + 1 1 0 0<br />
2 W ⎝⎝0 1 0⎠⎠ ≤ 0.<br />
0 0 1<br />
0 0 1<br />
0 0 1<br />
Das ist aber unphysikalisch: Man kann einen dreidimensionalen elastischen Körper<br />
nicht auf einen eindimensionalen Strich zus<strong>am</strong>menpressen, ohne dem System<br />
Energie zuzuführen. (Im Gegenteil: Eine solche Deformation sollte sogar unendlich<br />
viel Energie kosten.)<br />
U<br />
5.3 Polykonvexität<br />
In diesem Abschnitt werden wir das eben angesprochene Dilemma lösen, indem<br />
wir Integranden zulassen, die nicht mehr konvex sein müssen. Um die direkte Methode<br />
zur Auffindung von Minimierern anwenden zu können, müssen wir jedoch<br />
sicherstellen, das die betrachteten Funktionale noch unterhalbstetig sind. Als geeignete<br />
Klasse von Integranden werden sich die sog. polykonvexen Funktionen<br />
87
herausstellen. Diese Funktionen führen einerseits zu unterhalbstetigen Funktionalen,<br />
an<strong>der</strong>erseits lassen sich mit ihnen Energiefunktionale modellieren, die auch<br />
physikalisch sinnvoll sind.<br />
Im folgenden Abschnitt werden wir sehen, dass diese Klasse <strong>der</strong> guten Integranden<br />
noch erweitert werden kann. Im Allgemeinen kann es jedoch sehr schwierig<br />
sein zu entscheiden, ob die direkte Methode anwendbar ist. Polykonvexität<br />
(gemeins<strong>am</strong> mit geeigneten Wachstumsbedingungen) liefert hier ein wichtiges hinreichendes<br />
Kriterium.<br />
Wir erinnern zunächst an den Begriff <strong>der</strong> Kofaktormatrix aus <strong>der</strong> linearen<br />
Algebra. Ist A eine r×r Matrix und bezeichnet man mit A(i, j) die (r−1)×(r−1)<br />
Matrix, die dadurch entsteht, dass man die i-te Zeile und die j-te Spalte in A<br />
streicht, so ist die Kofaktormatrix cof A definiert als die r × r Matrix mit den<br />
Einträgen<br />
(cof A) ij = (−1) i+j det A(i, j).<br />
In <strong>der</strong> linearen Algebra zeigt man, dass<br />
det A Id = A T cof A = A(cof A) T (5.1)<br />
gilt. Beachte, dass cof A ist gerade die Ableitung von det A nach den Einträgen<br />
von A ist: Nach (5.1) gilt<br />
n∑<br />
det A δ ij = a ki (cof A) kj (5.2)<br />
k=1<br />
für alle i, j ∈ {1, . . .r}. Setzt man i = j = m in (5.2), so ergibt sich<br />
∂ det A<br />
= ∂ n∑<br />
a km (cof A) km = (cof A) lm . (5.3)<br />
∂a lm ∂a lm<br />
k=1<br />
Das wesentliche Hilfsresultat ist nun, dass die Kofaktormatrix einer Jakobimatrix<br />
divergenzfrei ist:<br />
Lemma 5.7 Es sei u : U → R n , U ⊂ R n offen, glatt. Dann gilt<br />
div(cof Du) = 0,<br />
wobei die Divergenz zeilenweise zu nehmen ist, also<br />
n∑<br />
∂ j ((cof Du) ij ) = 0 für i = 1, . . ., n.<br />
j=1<br />
Beweis. Wendet man (5.2) auf A = Du an und bildet die Divergenz, so ergibt<br />
sich<br />
∑<br />
∂ j (det Du δ ij ) = ∑ ( n∑<br />
)<br />
∂ j ∂ i u k (cof Du) kj<br />
j<br />
j k=1<br />
88
Mit Hilfe von (5.3) folgt daraus<br />
∑<br />
j,l,mδ ij (cof Du) lm ∂ j ∂ m u l = ∑ j,k<br />
∂ i ∂ j u k (cof Du) kj + ∑ j,k<br />
∂ i u k ∂ j ((cof Du) kj )<br />
Führt man hier auf <strong>der</strong> linken Seite die Summation über j aus, so erhält man<br />
gerade die erste Summe auf <strong>der</strong> linken Seite. D<strong>am</strong>it ist<br />
∑<br />
∂ i u k ∂ j ((cof Du) kj ) = 0,<br />
d.h.<br />
j,k<br />
Du div(cof Du)) = 0<br />
gezeigt. Für alle x 0 , für die Du(x 0 ) nicht singulär ist, folgt nun div(cof Du))(x 0 ) =<br />
0.<br />
Ist det Du(x 0 ) = 0, so betrachte die Abbildung u ε (x) := u(x)+εx. Hinreichend<br />
klein gewählt ist ε > 0 kein Eigenwert von Du(x 0 ), so dass Du ε (x 0 ) = Du(x 0 ) +<br />
ε Id nicht singulär ist. Wie oben gezeigt folgt daher div(cof Du ε )(x 0 )) = 0. Im<br />
Grenzwert ε → 0 ergibt sich daraus div(cof Du)(x 0 )) = 0.<br />
□<br />
Ein analoges Resultat gilt für die Minoren von Jakobimatrizen. Zur Erinnerung:<br />
Ist F eine m×n Matrix, so wird die Determinante einer quadratischen Teilmatrix<br />
von F ein Minor von F genannt. Im Folgenden bezeichnen wir für festes<br />
r ≤ min{m, n} und feste 1 ≤ i 1 < i 2 < . . . < i r ≤ m, 1 ≤ j 1 < j 2 < . . . < j r ≤ n<br />
mit S(F) = S i 1 ,...,ir (F) die r × r Submatrix<br />
j 1 ,...,jr<br />
⎛ ⎞<br />
f i1 j 1<br />
· · · f i1 j r<br />
⎜ ⎟<br />
S(F) = ⎝ . . ⎠<br />
f irj 1<br />
· · · f irj r<br />
für Matrizen F = (f ij ) ∈ R m×n sowie mit M(F) = M i 1 ,...,ir (F) den r-Minor<br />
j 1 ,...,jr<br />
M(F) = det S(F).<br />
Korollar 5.8 Es seien u : U → R m , U ⊂ R n offen, glatt und 1 ≤ i 1 < i 2 <<br />
. . . < i r ≤ m, 1 ≤ j 1 < j 2 < . . . < j r ≤ n. Dann gilt<br />
r∑<br />
t=1<br />
∂ jt ((cof S i 1 ,...,ir (Du)) isj t<br />
) = 0<br />
j 1 ,...,jr<br />
für s = 1, . . .,r.<br />
Beweis. Dies folgt indem man Lemma 5.7 lokal auf die Abbildung anwendet, die<br />
sich dadurch ergibt dass man<br />
(u i1 (x), . . . , u ir (x))<br />
89
als Funktion von (x j1 , . . ., x jr ) auffasst, wobei die übrigen Koordinaten fix sind.<br />
□<br />
Eine wichtige Konsequenz dieser Beobachtung ist, dass die Minoren von Jakobimatrizen<br />
schwach stetig sind.<br />
Satz 5.9 Es sei r < p < ∞, r ∈ {1, . . ., min{m, n}}. Ist (u (k) ) eine Folge aus<br />
W 1,p (U; R m ) mit<br />
u (k) ⇀ u in W 1,p (U; R m ),<br />
dann gilt für alle r-Minoren M<br />
M(Du (k) ) ⇀ M(Du) in L p r (U; R m ).<br />
Beweis. Der Beweis erfolgt durch Induktion über r. Dabei ist <strong>der</strong> Fall r = 1 klar,<br />
da die 1-Minoren einer Matrix gerade <strong>der</strong>en Einträge sind.<br />
Betrachte nun den r-Minor M(F) = M i 1 ,...,ir (F). Ist w ∈ C ∞ (U; R m ), so gilt<br />
j 1 ,...,jr<br />
nach (5.1)<br />
M(Dw) =<br />
Nach Korollar 5.8 ist<br />
r∑<br />
∂ js w it (cof S(Dw)) itj s<br />
für t = 1, . . ., r.<br />
s=1<br />
r∑<br />
w it ∂ js (cof S(Dw)) itj s<br />
= 0,<br />
s=1<br />
so dass M(Dw) als Ableitung geschrieben werden kann:<br />
M(Dw) =<br />
r∑<br />
∂ js (w it (cof S(Dw)) itj s<br />
) für t = 1, . . .,r. (5.4)<br />
s=1<br />
Für ϕ ∈ C ∞ c (U) ergibt sich daraus<br />
∫<br />
U<br />
∫<br />
M(Dw) ϕ = −<br />
U<br />
r∑<br />
w it (cof S(Dw)) itj s<br />
∂ js ϕ für t = 1, . . ., r. (5.5)<br />
s=1<br />
Da die Terme M(Dw) und w it (cof S(Dw)) itj s<br />
aus r-fachen Produkten von Einträgen<br />
in w und Dw bestehen, zeigt ein Standard-Approximationsargument (benutze<br />
die allgemeine Höl<strong>der</strong>-Ungleichung), dass (5.5) für alle w ∈ W 1,p , p ≥ r,<br />
gilt.<br />
Nun konvergiert u (k) ⇀ u schwach in W 1,p (U; R m ) und d<strong>am</strong>it wegen p ≥ r<br />
auch in W 1,r (U; R m ). Nach dem Satz von Rellich-Kondrachov konvergiert u (k) →<br />
u (stark) in L q (U) für 1 ≤ q < r ∗ = nr . Außerdem gilt nach Induktionsannahme<br />
n−r<br />
90
cof S(Du (k) ) ⇀ cof S(Du) in L p<br />
r−1 (U) und d<strong>am</strong>it auch in L<br />
r<br />
r−1 (U), da die Einträge<br />
von cof S(F) ja gerade (r − 1)-Minoren von F sind. Dann aber konvergiert<br />
u (k)<br />
i t<br />
(cof S(Du (k) )) itj s<br />
⇀ u it (cof S(Du)) itj s<br />
schwach in L˜q für 1 ≤ ˜q < n für alle i n−1 t, j s , denn es ist r−1<br />
r<br />
Hilfe von (5.5) für w = u (k) bzw. w = u folgt nun<br />
lim<br />
k<br />
∫<br />
U<br />
M(Du (k) ) ϕ = − lim<br />
k<br />
∫<br />
= −<br />
U<br />
∫<br />
U<br />
r∑<br />
s=1<br />
u (k)<br />
i t<br />
(cof S(Du (k) )) itj s<br />
∂ js ϕ<br />
r∑<br />
∫<br />
u it (cof S(Du)) itj s<br />
∂ js ϕ =<br />
s=1<br />
U<br />
+ n−r<br />
rn<br />
M(Du) ϕ.<br />
= n−1<br />
n . Mit<br />
(5.6)<br />
Dies zeigt, dass M(Du (k) ) gegen M(Du) im Distributionensinne konvergiert,<br />
sogar wenn nur p ≥ r vorausgesetzt ist. Da nun Du (k) eine beschränkte Folge<br />
in W 1,p ist, ist M(Du (k) ) beschränkt in L p r. Ist nun p > r, so ergibt sich aus<br />
<strong>der</strong> Reflexivität von L p r , dass jede Teilfolge von M(Du (k) ) eine in L p r schwach<br />
konvergente Teilfolge besitzt. Nach (5.6) muss dieser Limes M(Du) sein. Dann<br />
aber konvergiert die ges<strong>am</strong>te Folge M(Du (k) ) gegen M(Du).<br />
□<br />
Bemerkung 5.10 Dieser Satz gilt auch für p = ∞, wenn man die schwache<br />
durch schwach*-Konvergenz ersetzt. Das folgt unmittelbar aus <strong>der</strong> Version für<br />
p < ∞ und <strong>der</strong> Beobachtung, dass M(Du (k) ) in L ∞ beschränkt ist, wenn u (k)<br />
schwach*-konvergiert in W 1,∞ .<br />
Korollar 5.11 Sind u, v ∈ W 1,p (U; R m ) mit u − v ∈ W 1,p<br />
0 (U; R m ) für ein p ≥ r,<br />
so gilt<br />
∫ ∫<br />
M(Du) = M(Dv)<br />
für alle r-Minoren M.<br />
U<br />
Beweis. Nach Approximation von u und u − v dürfen wir o.B.d.A. u ∈ C ∞ (U)<br />
und u − v ∈ Cc ∞ (U) annehmen. Wie im Beweis von Satz 5.9 gezeigt gilt<br />
M(Dw) =<br />
r∑<br />
∂ js (w it (cof S(Dw)) itj s<br />
)<br />
s=1<br />
U<br />
für t = 1, . . .,r<br />
(s. Gleichung (5.4)) für glatte Funktionen w. Insbeson<strong>der</strong>e für w = u und w = v<br />
ergibt sich d<strong>am</strong>it<br />
∫ ∫<br />
M(Du) = u it (cof S(Du)) itj s<br />
ν js<br />
U<br />
∫∂U<br />
∫<br />
= v it (cof S(Dv)) itj s<br />
ν js = M(Dv),<br />
∂U<br />
91<br />
U
wenn ν die äußere Normale an ∂U bezeichnet.<br />
Eine Funktion f : R m×n → R mit dieser Eigenschaft, dass ∫ f(Du) nur von<br />
U<br />
den Werten von u auf dem Rand ∂U abhängt, nennt man Null-Lagrangefunktion.<br />
Definition 5.12 (i) Ist F ∈ R m×n , so bezeichne M(F) den aus allen Minoren<br />
von F bestehenden Vektor <strong>der</strong> Dimension d(m, n) = ∑ min{m,n}<br />
)<br />
r=1 .<br />
( m<br />
)( n<br />
r r<br />
(ii) Eine Funktion f : R m×n → R∪{∞} heißt polykonvex, wenn es eine konvexe<br />
Funktion g : R d(m,n) → R ∪ {∞} gibt, so dass<br />
□<br />
f(F) = g(M(F))<br />
∀F ∈ R m×n<br />
gilt.<br />
Insbeson<strong>der</strong>e ist jede konvexe Funktion polykonvex. Die Umkehrung davon<br />
gilt nicht, wenn m, n ≥ 2 ist wie das Beispiel des Minors<br />
F = (f ij ) ↦→ f 11 f 22 − f 12 f 21<br />
zeigt. Diese Funktion ist sogar affin im ersten 2-Minor, aber sicherlich nicht konvex<br />
auf {f 11 = f 22 = 0, f 12 = f 21 }.<br />
Beispiel: Eine Energiedichte W in <strong>der</strong> Elastizitätstheorie, die zu starke Kompressionen<br />
energetisch bestraft ist z.B.<br />
{<br />
1<br />
W(F) = |F | 2 t<br />
+ ψ(det F), mit ψ(t) =<br />
, t > 0,<br />
∞, t ≤ 0.<br />
Dieses W ist polykonvex.<br />
Wir kommen nun zum wesentlichen Unterhalbstetigkeitsresultat für Integranden,<br />
die polykonvex in Du sind:<br />
Satz 5.13 Es sei f : U × R m × R m×n → R eine glatte, nach unten beschränkte<br />
Funktion, so dass für fast alle x ∈ U und alle y ∈ R m , z ∈ R m×n<br />
f(x, y, z) = g(x, y, M(z))<br />
für eine geeignete (glatte) Funktion g gilt, die konvex in z sei. Dann ist I schwach<br />
unterhalbfolgenstetig auf W 1,p (U; R m ) für p > n.<br />
Der Beweis verläuft ähnlich wie <strong>der</strong> Beweis von Lemma 5.5.<br />
Beweis. Es sei (u k ) eine Folge mit u k ⇀ u in W 1,p (U; R m ). Es ist zu zeigen,<br />
dass lim inf k→∞ I(u k ) ≥ I(u) gilt. Genau wie im Beweis von Lemma 5.5 sieht<br />
man, dass wir annehmen dürfen, dass lim inf k→∞ I(u k ) = lim k→∞ I(u k ) gilt, dass<br />
u k → u stark in L p und fast überall konvergiert und dass f ≥ 0 ist.<br />
92
Wir definieren die Mengen A j und B j genau wie im Beweis von Lemma 5.5.<br />
Aus <strong>der</strong> Polykonvexität von f in z erhalten wir für jedes j:<br />
∫<br />
∫<br />
I(u k ) = f(x, u k , Du k ) dx ≥ f(x, u k , Du k ) dx<br />
U<br />
A j ∩B<br />
∫<br />
j<br />
= g(x, u k , M(Du k )) dx<br />
A j ∩B<br />
∫<br />
j<br />
≥ g(x, u k , M(Du))<br />
A j ∩B j<br />
+ D M(z) g(x, u k , M(Du)) · (M(Du k ) − M(Du)) dx.<br />
Wie im Beweis von Lemma 5.5 ergibt sich daraus nun<br />
lim k) ≥<br />
k→∞<br />
∫<br />
g(x, u, M(Du)) dx =<br />
A j ∩B j<br />
∫<br />
f(x, u, Du) dx<br />
A j ∩B j<br />
und mit monotoner Konvergenz schließlich<br />
∫<br />
lim I(u k) ≥ lim f(x, u, Du) dx = I(u).<br />
k→∞ j→∞<br />
A j ∩B j<br />
Korollar 5.14 Erfüllt f : U×R m ×R m×n → R zusätzlich zu den Voraussetzungen<br />
von Satz 5.13 die die Wachstumsbedingung<br />
□<br />
f(x, y, z) ≥ c 1 |z| p − c 2<br />
für geeignete Konstanten c 1 > 0, c 2 ∈ R, p > n, so existiert ein u ∈ A mit<br />
I(u) = inf<br />
v∈A I(v).<br />
Beweis. Das folgt mit <strong>der</strong> direkten Methode aus Lemma 5.4 und Satz 5.13.<br />
Als Anwendung <strong>der</strong> Tatsache, dass Determinanten Null-Lagrangefunktionen<br />
sind (vgl. Korollar 5.11), geben wir hier einen Beweis des Brouwerschen Fixpunktsatzes.<br />
Satz 5.15 (Brouwerscher Fixpunktsatz) Jede stetige Abbildung <strong>der</strong> abgeschlossenen<br />
Einheitskugel B 1 (0) in sich hat einen Fixpunkt.<br />
Der Beweis ergibt sich leicht aus dem folgenden Lemma.<br />
Lemma 5.16 Es gibt keine stetige Abbildung w : B 1 (0) → ∂B 1 (0) mit w(x) = x<br />
für alle x ∈ ∂B 1 (0).<br />
93<br />
□
Beweis von Satz 5.15. Es sei u : B 1 (0) → B 1 (0) eine stetige Funktion ohne<br />
Fixpunkt. Für x ∈ B 1 (0) definiere w(x) als den Schnittpunkt des Strahles, <strong>der</strong><br />
von u(x) ausgeht und durch den Punkt x führt, mit ∂B 1 (0). Dies definiert eine<br />
stetige Abbildung w : B 1 (0) → ∂B 1 (0) mit w(x) = x für alle x ∈ ∂B 1 (0) im<br />
Wi<strong>der</strong>spruch zu Lemma 5.16.<br />
□<br />
Beweis von Lemma 5.16. Wir führen die Annahme, es gäbe ein solches w zum<br />
Wi<strong>der</strong>spruch.<br />
Sei zunächst w als glatt angenommen. Ist v die identische Abbildung v(x) = x,<br />
so folgt aus Korollar 5.11<br />
∫ ∫<br />
det Dw = det Dv = |B 1 (0)| ≠ 0, (5.7)<br />
B 1 (0)<br />
B 1 (0)<br />
denn es gilt w = v auf ∂B 1 (0). An<strong>der</strong>erseits ist |w| 2 ≡ 1, so dass ∂ i w · w = 0 für<br />
alle i gilt und d<strong>am</strong>it (Dw) T w = 0. Wegen w ≠ 0 ist Null also ein Eigenwert von<br />
Dw und somit det Dw ≡ 0 auf B 1 (0), im Wi<strong>der</strong>spruch zu (5.7).<br />
Ist nun w nur als stetig vorausgesetzt, so setzen wir w gemäß w(x) = x auf<br />
R n \ B 1 (0) fort. Ist η ε <strong>der</strong> skalierte Standard-Glättungskern, so ist ˜w := η ε ∗ w<br />
glatt und ≠ 0 für ε hinreichend klein. (Beachte u ε → u gleichmäßig für ε → 0.)<br />
Für ε < 1 gilt auf ∂B 2 (0) außerdem<br />
∫<br />
∫<br />
˜w(x) = η ε (y)(x − y) dy = x − y η ε (y) dy = x,<br />
da η ε symmetrisch ist. D<strong>am</strong>it erfüllt nun die Abbildung<br />
˜w : B 1 (0) → B 1 (0), ˜w(x) := ˜w(2x)<br />
| ˜w(2x)| ,<br />
erstens ˜w ∈ C ∞ (B 1 (0)), zweitens ˜w(B 1 (0)) = ∂B 1 (0) und drittens ˜w(x) = x für<br />
x ∈ ∂B 1 (0) im Wi<strong>der</strong>spruch zum schon behandelten Fall.<br />
□<br />
5.4 Quasikonvexität<br />
Obgleich polykonvexe Integranden viele interessante Beispiele von Funktionalen<br />
liefern, ist es aus theoretischen Gründen sehr nützlich einen weiteren, allgemeineren<br />
Konvexitätsbegriff für Funktionen, die auf Matrizen definiert sind, zu untersuchen:<br />
Die Quasikonvexität. Wir lassen uns dabei von <strong>der</strong> Frage leiten, für<br />
welche Funktionen f das Integralfunktional<br />
∫<br />
I(u) = f(Du)<br />
unterhalbfolgenstetig auf W 1,p (U; R m ) ist. Der Einfachheit halber betrachten wir<br />
in diesem Abschnitt nur solche Integranden f, die nicht explizit von x o<strong>der</strong> u<br />
abhängen.<br />
U<br />
94
Definition 5.17 Eine Funktion f : R m×n → R heißt quasikonvex, wenn für eine<br />
beschränkte offene Menge U ⊂ R n mit |∂U| = 0 gilt<br />
∫<br />
− f(F + Dϕ(x)) dx ≥ f(F) ∀ ϕ ∈ W 1,∞<br />
0 (U; R m ).<br />
U<br />
Bemerkung 5.18 1. Wir betrachten hier nur R-wertige Funktionen. Will<br />
man auch +∞ als Wert von f zulassen, so muss man im Folgenden ein<br />
paar zusätzliche technische Detail beachten.<br />
2. Im R-wertigen Fall kann man sogar auf die Voraussetzung |∂U| = 0 verzichten.<br />
(Übung.)<br />
3. Gilt die definierende Ungleichung für eine beschränkte offene Menge U mit<br />
|∂U| = 0, so gilt sie automatisch für alle solchen Teilmengen von R n . Dies<br />
ergibt sich direkt aus dem folgenden Lemma.<br />
Im Hinblick auf spätere Anwendungen beweisen wir die Unabhängigkeit von<br />
U in einer etwas allgemeineren Fassung.<br />
Lemma 5.19 Für f ∈ L 1 loc (Rm×n ) und U ⊂ R n offen und beschränkt mit |∂U| =<br />
0 setze<br />
∫<br />
Qf(F, U) := inf<br />
ϕ∈W 1,∞ (U;R m )<br />
− f(F + Dϕ).<br />
Dann ist Qf(F, U) unabhängig von U.<br />
Beachte, dass Qf(·, U) = f ist, wenn f quasikonvex ist.<br />
Beweis. Es seien U, V ⊂ R n offen und beschränkt mit |∂U| = |∂V | = 0. Nach<br />
dem Überdeckungssatz von Vitali 3 gibt es eine höchstens abzählbare F<strong>am</strong>ilie von<br />
paarweise disjunkten Mengen a j V + b j ⊂ U, a j > 0 und b j ∈ R n , so dass<br />
∣ U \ ⋃ (a j V + b j )<br />
∣ = 0<br />
j<br />
ist.<br />
Ist nun ϕ ∈ W 1,∞<br />
0 (V ; R m ), so definiert<br />
{ ( )<br />
x−bj<br />
aj ϕ<br />
a<br />
ψ(x) :=<br />
j<br />
für x ∈ a j V + b j ,<br />
0 für x /∈ ⋃ j a jV + b j<br />
3 Der Überdeckungssatz von Vitali: Es sei U ⊂ R n beschränkt und offen sowie C eine F<strong>am</strong>ilie<br />
von abgeschlossenen Teilmengen von U. Es gebe 1. eine Konstante M > 1, so dass zu jedem<br />
C ∈ C ein x ∈ U und ein r > 0 existiert mit B r (x) ⊂ C ⊂ B Mr (x). 2. sei für fast alle x ∈ U<br />
inf{di<strong>am</strong>C : C ∈ C mit x ∈ C} = 0. Dann gibt es eine höchstens abzählbare F<strong>am</strong>ilie (C j ) von<br />
∣<br />
paarweise disjunkten Mengen aus C mit ∣U \ ⋃ j C j∣ = 0.<br />
In unserer Situation ist dieser Satz für C = {aV +b : a > 0, b ∈ R n , aV +b ⊂ U} zu verwenden.<br />
95<br />
U
ein Element von W 1,∞<br />
0 (U; R m ). Da |∂V | = 0 vorausgesetzt ist, können wir abschätzen<br />
∫<br />
|U|Qf(F, U) ≤ f(F + Dψ) = ∑ ∫ ( ( )) x − bj<br />
f F + Dϕ<br />
U<br />
j a j V +b j<br />
a j<br />
= ∑ ∫ ( ( )) x − bj<br />
f F + Dϕ<br />
j a j V +b j<br />
a j<br />
= ∑ ∫<br />
∫<br />
a n j f (F + Dϕ (x)) = |U|− f (F + Dϕ (x)) .<br />
j V<br />
V<br />
Dies zeigt Qf(F, U) ≤ Qf(F, V ); die Umkehrung ergibt sich analog.<br />
Wir benötigen noch einen weiteren Konvexitätsbegriff:<br />
Definition 5.20 Eine Funktion f : R m×n → R heißt Rang-1-konvex, wenn f<br />
entlang je<strong>der</strong> ‘Rang-1-Geraden’ konvex ist, d.h. wenn die Abbildung<br />
R ∋ t ↦→ f(tA + (1 − t)B)<br />
konvex ist, wann immer Rang(A − B) = 1 ist.<br />
Der folgende Satz klärt die Zus<strong>am</strong>menhänge <strong>der</strong> verschiedenen Konvexitätsbegriffe.<br />
Satz 5.21 Es sei f : R m×n → R eine Abbildung. Dann gilt<br />
f konvex =⇒ f polykonvex =⇒ f quasikonvex =⇒ f Rang-1-konvex.<br />
Bemerkung 5.22 1. Da eine Rang-1-konvexe Funktion insbeson<strong>der</strong>e separat<br />
konvex, d.h. konvex in jedem Eintrag, wenn die übrigen Argumente festgehalten<br />
sind, ist f in jedem Falle stetig.<br />
2. Ist m = 1 o<strong>der</strong> n = 1, so fallen all diese Konvexitätsbegriffe zus<strong>am</strong>men.<br />
(Klar, dass in diesem Fall f konvex ist genau dann, wenn f Rang-1-konvex<br />
ist.) Im Allgemeinen sind die Umkehrungen in Satz 5.21 jedoch falsch; dazu<br />
später mehr.<br />
Beweis. Dass Konvexität Polykonvexität impliziert, haben wir bereits im vorigen<br />
Abschnitt bemerkt.<br />
Sei nun f als polykonvex vorausgesetzt, so dass es eine konvexe Funktion<br />
g : R d(m,n) → R gibt mit f(F) = g(M(F)) für alle F ∈ R m×n . Mit Hilfe <strong>der</strong><br />
Jensenschen Ungleichung 4 ergibt sich für F ∈ R m×n , ϕ ∈ W 1,∞<br />
0 (U; R m ), U ⊂ R n<br />
4 Die Jensensche Ungleichung: Es sei ϕ : U → R d eine integrierbare Abbildung, U ⊂ R n , und<br />
g : V → R, V ⊂ R d offen, eine konvexe Funktion mit ϕ(U) ⊂ V , so dass auch g ◦ϕ integrierbar<br />
sei. Dann gilt<br />
∫<br />
− g(ϕ(x))dx ≥ g<br />
U<br />
( ∫<br />
−<br />
U<br />
)<br />
ϕ(x)dx .<br />
∫<br />
Beweis: Schreibe g = sup i∈I g i als Supremum über affine Funktionen g i . Dann ist −<br />
∫ ∫ g ◦ ϕ ≥<br />
− gi ◦ ϕ = g i (− ϕ) für alle i. Nun bilde das Supremum über i ∈ I.<br />
96<br />
□
offen,<br />
∫<br />
−<br />
U<br />
∫<br />
f(F + Dϕ) = −<br />
g(M(F + Dϕ))<br />
U(<br />
∫ )<br />
≥ g − M(F + Dϕ) = g(M(F)) = f(F),<br />
U<br />
wobei wir im vorletzten Schritt Korollar 5.11 ausgenutzt haben.<br />
Um die letzte Implikation zu zeigen, müssen wir begründen, dass für A, B, F ∈<br />
R m×n mit Rang(A − B) = 1 und F = λA + (1 − λ)B, λ ∈ (0, 1), die Ungleichung<br />
f(F) ≤ λf(A) + (1 − λ)f(B)<br />
erfüllt ist, wenn f quasikonvex ist. Da Rang(A − B) = 1 ist, gibt es Vektoren<br />
a ∈ R m , e ∈ R n mit |e| = 1, so dass 5 A − B = a ⊗ e und d<strong>am</strong>it<br />
A = F + (1 − λ)a ⊗ e und<br />
B = F − λa ⊗ e<br />
gilt. Nach einer Drehung des Koordinatensystem können wir o.B.d.A. annehmen,<br />
dass e = e 1 ist.<br />
Es sei z ∈ W 1,∞ (R; R) die 1-periodische Sägezahnfunktion mit<br />
{<br />
z(0) = 0, z ′ 1 − λ für t ∈ (0, λ),<br />
(t) =<br />
−λ für t ∈ (λ, 1).<br />
Auf dem Qua<strong>der</strong> Q = (0, 1) n betrachten wir die Funktionen<br />
u k (x) = Fx + a z(kx { }<br />
1)<br />
z(kx1 )<br />
, v k (x) = Fx + a min , dist(x, ∂Q) .<br />
k<br />
k<br />
Dann liegt die Funktion x ↦→ v k (x) − Fx in W 1,∞<br />
0 , so dass<br />
∫<br />
f(F) ≤ − f(Dv k ) ∀ k<br />
Q<br />
gilt. Nun ist aber v k = u k bis auf eine im Limes k → ∞ verschwindende Randschicht,<br />
so dass<br />
∫ ∫<br />
lim − f(Dv k ) = lim − f(Du k ) = λf(A) + (1 − λ)f(B)<br />
k<br />
Q<br />
k<br />
Q<br />
ist. Um die letzte Gleichung einzusehen, beachte, dass (für jedes k) Du k = A auf<br />
einer Menge vom Maße λ und Du k = B auf einer Menge vom Maße 1 − λ ist. □<br />
5 Für a ∈ R m , b ∈ R n bezeichnet a ⊗ b die m × n Matrix ab T = (a i b j ) ij .<br />
97
Bemerkung 5.23 Die Umkehrungen <strong>der</strong> ersten beiden Implikationen in Satz<br />
5.21 sind falsch wann immer m, n ≥ 2 ist. Die Umkehrung <strong>der</strong> dritten ist falsch<br />
für m ≥ 3, n ≥ 2. Die Frage, ob möglicherweise Quaiskonvexität aus Rang-1-<br />
Konvexität folgt für m = 2, n ≥ 2 ist offen. Das folgende Beispiel von Alibert,<br />
Dacorogna und Marcellini zeigt, dass man selbst explizit gegenenen Funktionen<br />
nicht so einfach ansehen kann, ob sie quasikonvex sind.<br />
Beispiel: Es sei m = n = 2,<br />
Dann gibt es ein ε > 0, so dass gilt<br />
f(F) = |F | 4 − γ|F | 2 det F.<br />
f konvex ⇐⇒ |γ| ≤ 4 3√<br />
2,<br />
f polykonvex ⇐⇒ |γ| ≤ 2,<br />
f quasikonvex ⇐⇒ |γ| ≤ 2 + ε,<br />
f Rang-1-konvex ⇐⇒ |γ| ≤ 4 √<br />
3<br />
.<br />
Es ist offen, ob ε = 4 √<br />
3<br />
− 2 ist. (Mehr dazu findet man etwa [Da].)<br />
Der wesentliche Zus<strong>am</strong>menhang zwischen <strong>der</strong> Unterhalbstetigkeit des Funktionals<br />
I(u) = ∫ f(Du) und <strong>der</strong> Quasikonvexität von f ist Inhalt des folgenden<br />
Satzes.<br />
Satz 5.24 Es sei f : R m×n → R stetig.<br />
(i) I ist schwach*-unterhalbfolgenstetig (σ ∗ uhfs) auf W 1,∞ (U; R m ) genau dann,<br />
wenn f quasikonvex ist.<br />
(ii) Gilt im Falle p ∈ (1, ∞) zudem<br />
0 ≤ f(F) ≤ C(1 + |F | p ) ∀ F ∈ R m×n ,<br />
so ist I schwach-unterhalbfolgenstetig (σuhfs) auf W 1,p (U; R m ) genau dann,<br />
wenn f quasikonvex ist.<br />
Wir werden hier nur (i) beweisen.<br />
Beweis. Sei Q = (0, 1) n und ϕ ∈ W 1,∞<br />
0 (Q; R m ). Setze ϕ periodisch zu einer auf<br />
ganz R n definierten Funktion fort und definiere u k ∈ W 1∞ (U; R m ) durch<br />
u k (x) := Fx + 1 k ϕ(kx).<br />
Es ist nicht schwer zu sehen, dass dann u ∗ k ⇀ u in W 1,∞ (U; R m ) für u(x) = Fx<br />
gilt und<br />
∫<br />
∫<br />
f(Du k ) → |U| f(F + Dϕ)<br />
U<br />
Q<br />
98
konvergiert. (Übung.) Ist nun I unterhalbstetig, so folgt<br />
f(F) = 1<br />
∫ ∫<br />
1<br />
I(u) ≤ lim inf<br />
|U| k→∞ |U| I(u 1<br />
k) = lim inf f(Du k ) ≤<br />
k→∞ |U|<br />
U<br />
Q<br />
f(F + Dϕ).<br />
Dies zeigt aber, dass f quasikonvex ist.<br />
Sei nun umgekehrt f als quasikonvex vorausgesetzt und u k ∗ ⇀ u in W 1,∞ (U; R m ).<br />
1. Fall: u(x) = Fx + c ist affin. Wähle U ′ ⊂⊂ U und eine Abschneidefunktion<br />
θ ∈ C ∞ c (U) mit θ ≡ 1 auf U ′ und setze<br />
v k = u + θ(u k − u).<br />
Da u k gleichmäßig gegen u konvergiert, gibt es eine von U ′ unabhängige Konstante<br />
C > 0, so dass<br />
|Dv k | ≤ |Du| + |Dθ| · |u k − u| + |θ| · |Du k − Du| ≤ C<br />
ist für hinreichend große k ≥ k 0 , wobei k 0 von U ′ abhängt. Da f stetig ist, ergibt<br />
sich nun mit M = sup{|f(F)| : |F | ≤ 2C}<br />
(∫ ∫<br />
)<br />
lim inf I(u k) ≥ lim inf f(Dv k ) + f(Du k ) − f(Dv k )<br />
k→∞<br />
k→∞<br />
U<br />
U\U ′<br />
≥ |U|f(F) − 2M|U \ U ′ |,<br />
wobei wir v k − u ∈ W 1,∞<br />
0 (U; R m ) und die Quasikonvexität von f ausgenutzt<br />
haben. Da U ′ ⊂⊂ U beliebig war, folgt daraus nun die Behauptung.<br />
2. Fall: u ist stückweise affin. lim inf I(u k ) ≥ I(u) folgt hier unmittelbar aus Fall<br />
1 angewandt auf die Mengen, auf denen u affin ist.<br />
3. Fall: u ist eine allgemeine W 1,∞ -Funktion. Es sei U ′′ ⊂⊂ U ′ ⊂⊂ U. Indem<br />
wir u zunächst durch Faltung mit Glättungkernen durch eine glatte Funktion v<br />
approximieren, dann für eine Abschneidefunktion θ ∈ C ∞ c (U ′ ) mit θ ≡ 1 auf U ′′<br />
die Funktion<br />
θv + (1 − θ)u<br />
konstruieren und diese schließlich auf auf U ′′ mit Hilfe einer feinen Triangulisierung<br />
durch ihre stückweise affine Interpolation ersetzen, erhalten wir eine Folge<br />
v j von Approximationen an u, so dass 1. v j stückweise affin in U ′′ ist, 2. v j ≡ u<br />
auf U \ U ′ und 3. Dv j → Du konvergiert mit j → ∞ stark in L p für alle p < ∞<br />
und schwach* in L ∞ .<br />
Setze<br />
u j,k : u k + v j − u.<br />
99
Dann ist |Du j,k | ≤ C und u ∗ j,k ⇀ v j in W 1,∞ mit k → ∞. Es folgt<br />
∫<br />
∫<br />
lim lim inf f(Du j,k ) ≥ lim f(Du j,k ) (nach Fall 2)<br />
j→∞ k→∞<br />
U ′′ j→∞<br />
∫<br />
U ′′<br />
= f(Du) (majorisierte Konvergenz)<br />
U<br />
∫<br />
′′<br />
≥ f(Du) − C|U \ U ′′ |.<br />
U<br />
(Beachte, dass o.B.d.A. Dv j → Du fast überall.) Da außerdem (majorisierte<br />
Konvergenz)<br />
∫<br />
∫<br />
lim sup |f(Du j,k ) − f(Du k )| ≤ lim sup ω(|Du j,k − Du k |)<br />
j→∞ k<br />
j→∞ k U<br />
U<br />
= lim ω(|Dv j − Du|) = 0<br />
j→∞<br />
∫U<br />
gilt, wenn ω den Stetigkeitsmodul von f bezeichnet, folgt nun<br />
∫<br />
∫<br />
lim inf f(Du k ) ≥ lim lim inf f(Du j,k ) − C|U \ U ′′ |<br />
k→∞<br />
U<br />
j→∞ k→∞<br />
∫<br />
U ′′<br />
≥ f(Du) − 2C|U \ U ′′ |.<br />
Da U ′′ ⊂⊂ U beliebig war, ergibt sich daraus die Behauptung.<br />
U<br />
□<br />
Korollar 5.25 Sei p ∈ (1, ∞), g ∈ W 1,p (U), U ⊂ R n offen und beschränkt.<br />
f : R m×n → R sei quasikonvex und erfülle die Wachstumsbedingung<br />
c 1 |F | p − c 2 ≤ f(F) ≤ c 2 + c 2 |F | p<br />
∀F ∈ R m×n<br />
für geeignete Konstanten c 1 , c 2 > 0. Dann nimmt I auf A g = {v ∈ W 1,p (U; R m ) :<br />
u − g ∈ W 1,p<br />
0 (U; R m )} sein Minimum an.<br />
Beweis. Das folgt mit <strong>der</strong> direkten Methode aus Lemma 5.4 und Satz 5.24, wenn<br />
man o.B.d.A. f ≥ 0 annimmt.<br />
□<br />
5.5 Relaxation<br />
Wir untersuchen nun Integralfunktionale, <strong>der</strong>en Integranden nicht einmal quasikonvex<br />
sind. Im Allgemeinen nehmen diese Funktional ihr Minimum nicht an.<br />
Obgleich das auf den ersten Blick pathologisch erscheint, werden wir sehen, dass<br />
gerade die Nicht-Existenz von Minimierern ein Indikator für interessante physikalische<br />
Phänomene wie etwa die Ausbildung von Mikrostrukturen in Materialien<br />
darstellen kann.<br />
100
Beispiel: Betrachte das eindimensionale Variationsproblem<br />
Minimiere I(w) =<br />
∫ 1<br />
0<br />
f(w(x)) dx unter <strong>der</strong> Nebenbedingung<br />
∫ 1<br />
0<br />
w(x) dx = α.<br />
Ist f ≥ 0 eine Funktion mit mehr als einem Minimierer, etwa f(z 1 ) = f(z 2 ) = 0,<br />
so kann ein solches Funktional als Modell für ein physikalisches System dienen,<br />
dass sich bevorzugt (also mit geringer Energie) in den ‘Phasen’ w = z 1 o<strong>der</strong><br />
w = z 2 aufhält, wobei <strong>der</strong> Mittelwert ∫ 1<br />
w = α festgelegt ist, so dass sich das<br />
0<br />
System i.A. nicht ausschließlich in ‘Phase z 1 ’ bzw. ‘Phase z 2 ’ aufhalten kann.<br />
Mit Hilfe <strong>der</strong> Jensenschen Ungleichung sieht man, dass<br />
∫ ∫ (∫ )<br />
f(w) ≥ f ∗∗ (w) ≥ f ∗∗ w = f ∗∗ (α)<br />
nach unten abgeschätzt werden kann, wobei f ∗∗ die konvexe Einhüllende von f<br />
bezeichne. Diese Abschätzung ist in <strong>der</strong> Tat scharf, denn zu ε > 0 kann man<br />
w 1 , w 2 ∈ R und λ ∈ [0, 1] wählen mit<br />
α = λw 1 + (1 − λ)w 2 , f ∗∗ (α) ≥ λf(w 1 ) + (1 − λ)f(w 2 ) − ε,<br />
so dass für<br />
gilt<br />
∫<br />
w(x) =<br />
{<br />
w 1 , x ∈ (0, λ),<br />
w 2 , x ∈ (λ, 1),<br />
f(w) = λf(w 1 ) + (1 − λ)f(w 2 ) = f ∗∗ (α) + ε.<br />
Ist man also nur <strong>am</strong> Minimalwert des Problems interessiert, so kann man das<br />
Funktional I(w) = ∫ f(w) durch das analytisch gutartigere ‘relaxierte’ Funktional<br />
I rel (w) := ∫ f ∗∗ (w) ersetzen.<br />
Für w = y ′ lässt sich dieses Funktional als ein elastisches Energiefunktional<br />
I(y) = ∫ 1<br />
0 f(y′ ) für einen (eindimensionalen) elastischen Stab interpretieren.<br />
‘Bevorzugte Phasen’ von f sind dann Deformationen minimaler Energie. Beachte<br />
dass hier die Nebenbedingung ∫ y ′ = α gerade die Randbedingung y(1)−y(0) = α<br />
ist. Es wird also die Frage untersucht, welche Energie nötig ist, um den Stab auseinan<strong>der</strong>zuziehen<br />
bzw. zus<strong>am</strong>menzudrücken.<br />
Ziel dieses Abschnitts ist es, die in diesem Beispiel beschriebene Vorgehensweise<br />
auf vektorwertige Probleme zu verallgemeinern.<br />
Definition 5.26 Zu f : R m×n → R definieren wir die quasikonvexe Einhüllende<br />
f qk : R m×n → [−∞, ∞) als die größte quasikonvexe Funktion, die kleiner o<strong>der</strong><br />
gleich f ist.<br />
101
Es ist leicht zu sehen, dass das Supremum quasikonvexer Funktionen wie<strong>der</strong><br />
quasikonvex ist, so dass f qk wohldefiniert ist und<br />
f qk = sup{g ≤ f : g ist quasikonvex}<br />
gilt. Beachte, dass f qk R-wertig o<strong>der</strong> identisch −∞ ist.<br />
Satz 5.27 Ist f ∈ L 1 loc (Rm×n ), so gilt für jede beschränkte offene Menge U ⊂ R n<br />
mit |∂U| = 0<br />
∫<br />
f qk (F) = inf<br />
ϕ∈W 1,∞<br />
0 (U;R m )<br />
− f(F + ∇ϕ).<br />
U<br />
Beweis. Mit <strong>der</strong> Notation aus Lemma 5.19 ist f qk = Qf(·, U) zu zeigen, wobei<br />
wir nach Lemma 5.19 schon wissen, dass Qf(·, U) nicht von U abhängt. Nun ist<br />
einerseits<br />
Qf(·, U) ≥ Qf qk (·, U) = f qk .<br />
Um an<strong>der</strong>erseits Qf(·, U) ≤ f qk nachzuweisen, genügt es wegen Qf(·, U) ≤ f zu<br />
zeigen, dass Qf(·, U) quasikonvex ist.<br />
Dazu dürfen wir o.B.d.A. Qf(·, U) > −∞ annehmen, denn gibt es ein G ∈<br />
R m×n mit Qf(G, U) = −∞, dann ist Qf(·, U) ≡ −∞: Zu F ∈ R m×n wähle<br />
ψ ∈ W 1,∞<br />
0 (U, R m ) mit F + Dψ ≡ G auf einer Teilmenge U ′ ⊂⊂ U. Dann aber ist<br />
|U|Qf(F, U) ≤ ∫ ∫<br />
f(F + Dψ) + inf<br />
U\U ′ ϕ∈W<br />
1,∞<br />
0 (U;R m )<br />
f(G + Dϕ) = −∞.<br />
U ′<br />
Sei nun ψ ∈ W 1,∞<br />
0 stückweise affin: Es gebe endlich viele paarweise disjunkte<br />
offene Mengen U i , auf denen ψ affin sei, mit<br />
∣ U \ ⋃ ∣ ∣∣∣∣<br />
U i = 0.<br />
i<br />
Zu ε > 0 wähle ϕ i ∈ W 1,∞<br />
0 (U i ; R m ), so dass<br />
∫<br />
Qf(F + Dψ, U i ) ≥ − f(F + Dψ + Dϕ i ) − ε.<br />
U i<br />
Für ϕ := ψ+ ∑ i ϕ i ∈ W 1,∞<br />
0 (U, R m ), wobei die ϕ durch Null auf ganz U fortgesetzt<br />
wurden, ist<br />
∫<br />
Qf(F + Dψ, U) = ∑ |U i |Qf(F + Dψ, U i )<br />
U i<br />
∫<br />
≥ f(F + Dϕ) − ε|U| ≥ (Qf(F, U) − ε) |U|.<br />
U<br />
Da ε beliebig war, ergibt sich<br />
∫<br />
− Qf(F + Dψ, U) ≥ Qf(F, U). (5.8)<br />
U<br />
102
Da diese Ungleich nur für alle stückweise affinen ψ gezeigt ist, können wir<br />
noch nicht unmittelbar folgern, dass Qf(·, U) quasikonvex ist. Eine Inspektion<br />
des Beweises von Satz 5.21 (insbeson<strong>der</strong>e <strong>der</strong> Implikation ‘quasikonvex =⇒<br />
Rang-1-konvex’) zeigt jedoch, dass die Gültigkeit von (5.8) für alle stückweise<br />
affinen ψ schon ausreicht, um zu schließen, dass Qf(·, U) Rang-1-konvex ist.<br />
D<strong>am</strong>it aber ist Qf(·, U) separat konvex und insbeson<strong>der</strong>e stetig. Nun erhält<br />
man, dass (5.8) tatsächlich für alle ψ ∈ W 1,∞<br />
0 (U; R m ) gilt durch ein Standard-<br />
Approximationsargument.<br />
□<br />
Wir können nun das Hauptergebnis dieses Paragraphen über die Relaxierung<br />
von Integralfunktionalen I(u) = ∫ f(Du(x)) dx formulieren.<br />
U<br />
Satz 5.28 Es seien U ⊂ R n offen und beschränkt mit C 1 -Rand und 1 < p < ∞.<br />
f erfülle eine p-Wachstumsbedingung <strong>der</strong> Form<br />
c 1 |F | − c 2 ≤ f(F) ≤ c 2 (1 + |F | p ).<br />
Dann gilt für das relaxierte Funktional I rel (u) := ∫ U fqk (Du(x)) dx:<br />
inf I = min I rel .<br />
A g A g<br />
Des Weiteren ist ū ein Minimierer von I rel genau dann, wenn ū (W 1,p -schwacher)<br />
Häufungspunkt einer minimierenden Folge für I ist.<br />
Dreh- und Angelpunkt zum Beweis dieses Satzes ist das folgende Lemma, das<br />
in Verbindung mit Satz 5.24 zeigt, dass I rel die (W 1,p -schwach-) unterhalbstetige<br />
Einhüllende von I ist.<br />
Lemma 5.29 Unter den Voraussetzungen von Satz 5.28 gilt: Ist u ∈ W 1,p , so<br />
gibt es eine Folge (u k ) mit u k − u ∈ W 1,p<br />
0 und<br />
u k ⇀ u in W 1,p<br />
sowie I(u k ) → I rel (u).<br />
Beweis. Wähle U j ′′ ⊂⊂ U j ′ ⊂⊂ U mit |U \ U j ′′ | → 0 für j → ∞. Ähnlich wie im<br />
Beweis von Satz 5.24 konstruieren wir v j , so dass v j stückweise affin auf U j ′′ und<br />
gleich u auf U \ U j ′ ist. Wir dürfen zudem annehmen, dass Dv j → Du in L p (U)<br />
konvergiert.<br />
Es seien U j,i ⊂ U j ′′ disjunkte offene Mengen mit |U j ′′ \ ⋃ i U j,i| = 0, auf denen<br />
v j affin ist. Wähle ε j → 0, ϕ j,i ∈ W 1,∞<br />
0 (U i ) (durch 0 auf U fortgesetzt), so dass<br />
auf U j,i gilt<br />
∫<br />
f qk (Dv j ) ≥ − f(Dv j + Dϕ j,i ) − ε j<br />
U j,i<br />
(vgl. Satz 5.27). Dann ist ϕ j := ∑ i ϕ j,i ∈ W 1,∞<br />
0 (U) und<br />
∫<br />
f qk (Dv j ) = ∑ ∫ ∫<br />
|U j,i |− f qk (Dv j ) ≥ f(Dv j + Dϕ j ) − ε j |U|. (5.9)<br />
U j<br />
′′<br />
i U j,i U j<br />
′′<br />
103
Setze nun u j := v j + ϕ j . Offensichtlich ist u j − u ∈ W 1,p<br />
0 . Des Weiteren ist<br />
wegen Dv j → Du in L p<br />
∫<br />
∫<br />
lim f qk (Dv j ) = lim f<br />
j→∞<br />
U j<br />
′′<br />
j→∞<br />
∫U<br />
qk (Dv j ) = f qk (Du) = I rel (u). (5.10)<br />
U<br />
Wegen (5.9) und da ϕ j auf U \ U j ′′ verschwindet, folgt nun aus <strong>der</strong> Wachstumsbedingung<br />
an f, dass<br />
∫ ∫<br />
c 1 ‖u j ‖ p L p (U) − c 2|U| ≤ I(u j ) =<br />
U ′′<br />
j<br />
f(Du j ) +<br />
U\U ′′<br />
j<br />
f(Dv j ) ≤ C<br />
ist. Nach Übergang zu einer Teilfolge folgt daher u j ⇀ w für ein w ∈ W 1,p . Nun<br />
gilt nach (5.9) und (5.10)<br />
∫ ∫<br />
lim sup I(u j ) = lim sup f(Du j ) + f(Dv j ) ≤ I rel (u).<br />
j→∞<br />
j→∞<br />
U ′′<br />
j<br />
An<strong>der</strong>erseits ist nach Satz 5.24 auch<br />
lim inf<br />
j→∞<br />
I(u j) ≥ lim inf<br />
j→∞<br />
U\U ′′<br />
j<br />
Irel (u j ) ≥ I rel (w).<br />
Es bleibt also nur noch u<br />
∫<br />
= w zu zeigen.<br />
∫<br />
Dazu genügt es, lim j χDuj = lim j χDvj für χ in einer dichten Teilmenge<br />
von L p′ , 1 + 1 = 1, nachzuweisen. Indem wir die Mengen U<br />
p p ′<br />
j,i gegebenenfalls<br />
in mehrere Mengen zerteilen, dürfen wir o.B.d.A. annehmen, dass jedes U j,i<br />
höchstens einen Durchmesser vom Betrag 1 hat und dass (U j j+1,i) i eine Verfeinerung<br />
von (U j,i ) i ist für alle j. Eine geeignete dichte Teilmenge von L p ist dann z.B.<br />
durch die Menge <strong>der</strong>jenigen Funktionen χ gegeben, für die ein j = j(χ) existiert,<br />
so dass χ konstant auf den U j,i ist. Für ein solches χ ist nämlich<br />
∫ ∫<br />
χDu j = χDv j + ∑ ∫ ∫<br />
χDϕ j,i = χDv j ∀ j ≥ j(χ).<br />
i U j,i<br />
Beweis von Satz 5.28. Offensichtlich ist inf Ag I ≥ inf Ag I rel und nach Lemma 5.29<br />
auch umgekehrt inf Ag I ≤ inf Ag I rel . Nach Korollar 5.25 ist außerdem inf Ag I rel =<br />
min Ag I rel , so dass inf Ag I = min Ag I rel gezeigt ist.<br />
Ist nun ū Häufungspunkt einer I-minimierenden Folge (u k ), so gilt nach Satz<br />
5.24<br />
I rel (ū) ≤ lim inf<br />
k→∞<br />
Irel (u k ) ≤ lim inf<br />
k→∞<br />
I(u k) = inf<br />
A g<br />
I = min<br />
A g<br />
I rel .<br />
□<br />
104
Ist umgekehrt ū als Minimierer von I rel vorausgesetzt, so können wir nach Lemma<br />
5.29 eine Folge (u k ) ⊂ A g wählen, so dass<br />
u k ⇀ ū in W 1,p sowie I(u k ) → I rel (ū) = min I rel = inf I<br />
A g<br />
A g<br />
gilt, so dass ū Häufungspunkt <strong>der</strong> I-minimierenden Folge (u k ) ist.<br />
□<br />
Bemerkung 5.30 1. Man nenn I rel die Relaxierung von I. Analoge Ergebnisse<br />
gelten auch für Funktionale <strong>der</strong> Form<br />
∫<br />
I(u) = f(x, u(x), Du(x)) dx.<br />
Hier wird das relaxierte Funktional durch<br />
∫<br />
I rel (u) = f qk (x, u(x), Du(x)) dx<br />
U<br />
U<br />
definiert, wobei f qk als die Quasikonvexifizierung <strong>der</strong> Funktion F ↦→ f(x, u, F)<br />
für feste x ∈ U und u ∈ R m definiert wird.<br />
2. Der wichtige Punkt ist, dass I rel – im Gegensatz zu I – sein Minimum<br />
immer annimmt. Minimierern von I rel entsprechen schwache Häufungspunkte<br />
von I-minimierenden Folgen. In diesen Folgen stecken jedoch unter<br />
Umständen wesentliche Informationen über das zugrunde liegende physikalische<br />
Problem, die durch den Übergang zu I rel verlorengehen, s. das folgende<br />
Beispiel.<br />
Beispiel: Betrachte das Funktional<br />
I(u) =<br />
∫ 1<br />
0<br />
((u ′ ) 2 − 1) 2 + u 2<br />
auf W 1,4<br />
0 . Das relaxierte Funktional ist gegeben durch<br />
I rel =<br />
∫ 1<br />
0<br />
f ∗∗ (u ′ ) + u 2 ,<br />
wobei f ∗∗ die Konvexifizierung von f(v) = (v 2 − 1) 2 ist, also<br />
{<br />
f ∗∗ (v 2 − 1) 2 für |v| ≥ 1,<br />
(v) =<br />
0 für |v| ≤ 1.<br />
Nun ist ū ≡ 0 ein Minimierer von I rel mit I rel (ū) = 0, das Minimum von I<br />
wird jedoch nicht angenommen. (I(u) = 0 =⇒ ∫ u 2 = 0 =⇒ u ≡ 0 =⇒<br />
∫<br />
((u ′ ) 2 − 1) 2 = 1 > 0.)<br />
105
Physikalisch von Interesse sind nun solche u mit möglichst geringem I(u), also<br />
gerade die minimierenden Folgen. Ein Beispiel einer minimierenden Folge ist<br />
u k (x) = φ(kx) φ(kx), mit φ(x) = 1 ∣ ∣∣∣<br />
k<br />
2 − x − ⌊x⌋ − 1 2∣ .<br />
Die Wahl einer minimierenden Folge ist jedoch nicht eindeutig. Trotzdem aber<br />
kann man hoffen, universelle Eigenschaften dieser Folgen zu identifizieren. In unserem<br />
Beispiel etwa gilt für jede minimierende Folge u k → 0 in L 2 . Darüberhinaus<br />
würden wir erwarten, dass<br />
• u ′ k ≈ ±1 sein muss,<br />
• <strong>der</strong> Wechsel zwischen u ′ k ≈ −1 und u′ k ≈ +1 mit größerem k immer schneller<br />
wird und<br />
• im Mittel genauso oft u ′ k ≈ −1 wie u′ k ≈ +1 gilt.<br />
Wie man diese Aussagen präzise fassen kann, darauf werden wir im nächsten<br />
Abschnitt eingehen.<br />
5.6 Young-Maße<br />
Bei Young-Maßen handelt es sich eigentlich um eine F<strong>am</strong>ilie von Maßen ν =<br />
(ν x ) x∈Ω , Ω ⊂ R n eine messbare Menge. Ist w k : Ω → R d eine Folge messbarer<br />
Funktionen, so erzeugt (w k ) das Young-Maß ν = (ν x ), wobei jedes ν x ein (Sub-)<br />
Wahrscheinlichkeitsmaß auf R d ist, wenn für alle x 0 ∈ Ω gilt:<br />
ν x0 (dy) ist ‘die Wahrscheinlichkeit für w k (x) ∈ dy im Limes k → ∞<br />
für x nahe x 0 ’.<br />
Young-Maße liefern also eine Werte-Satistik von w k (x) für späte Folgenglie<strong>der</strong>.<br />
Wir werden dies im Folgenden präzisieren. Mit dieser Interpretation lassen sich<br />
die Vermutungen über das universelle Verhalten von u ′ k aus dem letzten Beispiel<br />
des vorigen Abschnitts umformulieren zu <strong>der</strong> Aussage:<br />
Für große k ist u ′ k (x) mit hoher Wahrscheinlichkeit nahe ±1. Dabei<br />
sollte u ′ k ≈ −1 genauso wahrscheinlich wie u′ k ≈ +1 sein und zwar<br />
unabhängig vom betrachteten Punkt x.<br />
Zur Konstruktion von Young-Maßen benötigen wir eine technische Vorbereitung.<br />
Es sei<br />
C 0 (R d ) := {f ∈ C(R d ) : lim f(x) = 0} = C c (R d )<br />
|x|→∞<br />
106
<strong>der</strong> – mit <strong>der</strong> sup-Norm versehene – Raum <strong>der</strong> im Unendlichen verschwindenden<br />
stetigen Funktionen. (Allgemeiner definiert man C 0 (U) auch für Teilmengen U<br />
von R d als den Abschluss <strong>der</strong> stetigen Funktionen mit kompaktem Träger in U<br />
bezüglich <strong>der</strong> sup-Norm.) Wir bezeichnen den Raum <strong>der</strong> signierten Radonmaße<br />
endlicher Masse auf R d mit M(R d ). Nach dem Rieszschen Darstellungssatz ist<br />
M(R d ) isometrisch isomorph zum Dualraum von C 0 (R d ), wobei ein Maß µ gemäß<br />
∫<br />
C 0 (R d ) ∋ f ↦→ 〈µ, f〉 = f(x)µ(dx)<br />
R d<br />
als Funktional auf C 0 (R d ) wirkt. Ist Ω ⊂ R n messbar, so ist <strong>der</strong> Raum L 1 (Ω; C 0 (R d ))<br />
wie in Definition 2.9 definiert. Es stellt sich nun heraus, dass <strong>der</strong> Dualraum von<br />
L 1 (Ω; C 0 (R d )) gerade durch den Raum L ∞ w ∗(Ω; M(Rd )) <strong>der</strong> schwach*-messbaren<br />
wesentlich beschränkten Funktionen mit Werten in M(R d ) gegeben ist. 6 Ist ν ∈<br />
L ∞ w ∗(Ω; M(Rd )), so schreiben wir meist ν x für ν(x) ∈ M(R d ).<br />
Satz 5.31 (Haupsatz für Young-Maße) Es sei Ω ⊂ R n messbar mit |Ω| < ∞<br />
und w k : Ω → R d eine Folge messbarer Funktionen. Dann gibt es eine Teilfolge<br />
(w kj ) und ein ν ∈ L ∞ w ∗(Ω; M(Rd )), so dass<br />
(i) ν x ≥ 0 und ‖ν x ‖ M(R d ) = ∫ R d dν x ≤ 1 für fast alle x ist.<br />
(ii) Für alle f ∈ C 0 (R d ) gilt<br />
f(w kj ) ∗ ⇀ ¯f<br />
in L ∞ (Ω),<br />
wobei ¯f gegeben ist durch<br />
∫<br />
¯f(x) := 〈ν x , f〉 = f(y) dν x (y).<br />
R d<br />
(iii) Es sei K ⊂ R d kompkt. Dann gilt<br />
dist(w kj , K) → 0 d.M.n. =⇒ supp ν x ⊂ K f.f.a. x.<br />
Hierbei steht ‘d.M.n.’ für Konvergenz ‘dem Maße nach”. 7<br />
(iv) Es ist ‖ν x ‖ = 1 f.f.a x genau dann, wenn<br />
lim sup |{|w kj | ≥ M}| = 0<br />
M→∞<br />
gilt, wenn also keine Masse nach ∞ entkommt.<br />
j<br />
6 Einen Beweis findet man etwa in [Ed, S. 588f]. Beachte, dass M(R d ) we<strong>der</strong> separabel noch<br />
reflexiv ist, so dass die in Kapitel 2 angesprochenen Resultate (s. die Bemerkung nach Lemma<br />
2.27) nicht anwendbar sind. In <strong>der</strong> Tat sind Funktionale auf L 1 (Ω; C 0 (R d )) i.A. nicht stark<br />
messbar.<br />
7 Seien v, v 1 , v 2 , . . . : Ω → R messbar, Ω ⊂ R n messbar mit |Ω| < ∞. Man sagt die Folge v k<br />
konvergiert dem Maße nach gegen v, wenn lim k→∞ |{x : |v k (x)−v(x)| ≥ ε}| = 0 gilt für alle ε ><br />
0. (Das entspricht dem Begriff <strong>der</strong> stochastischen Konvergenz in <strong>der</strong> Wahrscheinlichkeitstheorie.)<br />
107
(v) Sei ‖ν x ‖ = 1 f.f.a x, f ∈ C(R d ) und A ⊂ Ω messbar. Ist dann<br />
(f(w kj )) relativ schwach folgenkompakt in L 1 (A),<br />
so folgt<br />
f(w kj ) ⇀ ¯f<br />
in L 1 (A).<br />
(vi) Gilt ‖ν x ‖ = 1 f.f.a x, so stimmt in (iii) auch die umgekehrte Implikation<br />
‘⇐=’.<br />
Definition 5.32 Die Abbildung ν : Ω → M(R d ) ist das von (w kj ) erzeugte<br />
Young-Maß.<br />
Bemerkung 5.33 1. Der zentrale Punkt ist (ii): Das Young-Maß verschlüsselt<br />
die schwach*-Limites aller nicht-linearer Funktionen <strong>der</strong> w kj . Zur Erinnerung:<br />
In einer Hausaufgabe wurde gezeigt, dass schwache Limites nicht mit<br />
nicht-linearen Operationen kommutieren. Selbst wenn <strong>der</strong> schwach*-Limes<br />
<strong>der</strong> Folge (w kj ) existiert und bekannt ist, so kann man daraus allein also<br />
keine Rückschlüsse auf die Werte <strong>der</strong> schwach*-Grenzwerte von f(w kj )<br />
gwinnen.<br />
2. Eine (technisch etwas kompliziertere) Version dieses Satzes gilt auch für<br />
|Ω| = ∞.<br />
3. Gilt ∫ Φ(|w Ω k|) ≤ C für ein Φ : [0, ∞) → R mit Φ(t) → ∞ für t → ∞, so<br />
ist lim M→∞ sup k |{|w k | ≥ M}| = 0: Zu ε > 0 wähle M ε , so dass Φ(t) ≥ ε −1<br />
für t > M ε gilt. Dann ist<br />
∫<br />
sup<br />
k<br />
|{|w k | ≥ M}| ≤ sup ε<br />
k<br />
{|w k |≥M}<br />
Φ(|w k |) ≤ Cε ∀ M ≥ M ε .<br />
4. Aus (v) ergibt sich: Ist (w k ) beschränkt in L p und f ∈ C(R d ) mit |f(y)| ≤<br />
C(1 + |y| q ), q < p, dann gilt<br />
f(w kj ) ⇀ ¯f in L p q .<br />
Das folgt aus <strong>der</strong> Tatsache, dass f(w kj ) beschränkt in L p q<br />
ist: Einerseits<br />
impliziert dies, dass f(w kj ) relativ schwach folgenkompakt in L 1 ist, so dass<br />
nach (v) f(w kj ) ⇀ ¯f in L 1 gilt. An<strong>der</strong>erseits erhält man daraus, dass jede<br />
Teilfolge eine in L p q konvergente Teilfolge besitzt. Zus<strong>am</strong>men ergibt sich die<br />
Behauptung.<br />
Für p > 1, f = id zeigt dies<br />
w kj ⇀ w in L p , w(x) = 〈ν x , id〉.<br />
108
Beweis. (i) & (ii) Setze W k (x) := δ wk (x). Dann ist ‖W k (x)‖ M = 1 für alle x<br />
und x ↦→ 〈W k (x), f〉 = f(w k (x)) messbar für alle f ∈ C 0 . D<strong>am</strong>it ist (W k ) als<br />
Folge in L ∞ w ∗(Ω; M(Rd )) = (L 1 (Ω; C 0 (R d ))) ′ erkannt mit ‖W k ‖ L ∞<br />
w ∗ (Ω;M) = 1. Da<br />
nun L 1 (Ω; C 0 (R d )) separabel ist, ist die schwach*-Topologie auf beschränkten<br />
Teilmengen von L ∞ w ∗(Ω; M(Rd )) metrisierbar und wir erhalten aus dem Satz von<br />
Alaoglu eine konvergente Teilfolge W ∗ kj ⇀ ν mit ‖ν‖ L ∞<br />
w ∗ (Ω;M) ≤ 1.<br />
Für ϕ ∈ L 1 (Ω), f ∈ C 0 (R d ) betrachte die Funktion ϕ ⊗ f ∈ L 1 (Ω; C 0 (R d )),<br />
definiert durch ϕ ⊗ f(x) = ϕ(x)f ∈ C 0 (R d ). Es gilt<br />
∫<br />
∫<br />
∫<br />
ϕ(x)f(w kj (x)) dx = ϕ(x)〈W kj (x), f〉 dx = 〈W kj (x), ϕ ⊗ f〉 dx<br />
Ω<br />
∫Ω<br />
∫<br />
Ω<br />
→ 〈ν x , ϕ ⊗ f〉 dx = ϕ(x)〈ν x , f〉 dx<br />
für j → ∞, was (ii) zeigt.<br />
Des Weiteren zeigt diese Rechnung<br />
∫<br />
ϕ(x)〈ν x , f〉 dx ≥ 0 ∀ ϕ ≥ 0 ∀ f ≥ 0.<br />
Ω<br />
Ω<br />
Dann aber gilt 〈ν x , f〉 ≥ 0 f.f.a x für alle f ≥ 0. Da C 0 separabel ist, ergibt sich<br />
daraus 〈ν x , f〉 ≥ 0 für alle f ≥ 0 f.f.a x und d<strong>am</strong>it auch ν x ≥ 0 f.f.a. x, was den<br />
Beweis von (i) beendet.<br />
(iii) Wir müssen 〈ν x , f〉 = 0 für alle f ∈ C 0 (R d \ K) nachweisen. Zu f ∈<br />
C 0 (R d \ K) und ε > 0 wähle C ε > 0, so dass<br />
|f(y)| ≤ ε + C ε dist(y, K)<br />
ist. (Das ist möglich, da f(y) → 0 geht für |y| → ∞.) Dann aber folgt<br />
Ω<br />
(|f| − ε) + (w kj ) ≤ C ε dist(w kj , K) → 0<br />
d.M.n.<br />
und (|f| − ε) + (w kj ) ∗ ⇀ (|f| − ε) + , so dass<br />
〈ν x , (|f| − ε) + 〉 = (|f| − ε) + (x) = 0 f.f.a. x<br />
gilt. Da ε > 0 beliebig war, folgt daraus nun mit monotoner Konvergenz 〈ν x , |f|〉 =<br />
0 und somit 〈ν x , f〉 = 0 f.f.a. x.<br />
(iv) Es gilt ‖ν x ‖ M ≤ 1 fast überall. Daher ist ‖ν x ‖ M = 1 f.f.a. x genau dann,<br />
wenn ∫ ‖ν Ω x‖ M = |Ω| ist.<br />
Definiere θ m ∈ C 0 (R d ), m ∈ N, durch<br />
⎧<br />
⎪⎨ 1, |y| ≤ m,<br />
θ m (y) := 1 + m − |y|, m ≤ |y| ≤ m + 1, (5.11)<br />
⎪⎩<br />
0, |y| ≥ m + 1.<br />
109
Dann ist einerseits<br />
∫ ∫<br />
θ m (w kj ) =<br />
lim<br />
j→∞<br />
Ω<br />
Ω<br />
∫ ∫<br />
〈ν x , θ m 〉 und lim 〈ν x , θ m 〉 = ‖ν x ‖ M ,<br />
m→∞<br />
Ω<br />
Ω<br />
wobei letzteres aus θ m ր 1 und einer zweimaligen Anwendung des Satzes von<br />
<strong>der</strong> monotonen Konvergenz folgt. An<strong>der</strong>erseits ist<br />
∫ {<br />
≥ |{|w kj | ≤ m}| = |Ω| − |{|w kj | > m}|,<br />
θ m (w kj )<br />
≤ |{|w kj | ≤ m + 1}| = |Ω| − |{|w kj | > m + 1}|,<br />
Ω<br />
so dass sich<br />
|Ω| − sup |{|w kj | > m}| ≤ lim θ m (w kj ) ≤ |Ω| − lim inf<br />
j<br />
j→∞<br />
∫Ω<br />
|{|w k j<br />
| > m + 1}|<br />
j→∞<br />
ergibt.<br />
Ist also lim m→∞ sup j |{|w kj | > m}| = 0, so erhalten wir tatsächlich<br />
∫ ∫<br />
|Ω| ≤ lim lim θ m (w kj ) = ‖ν x ‖ M .<br />
m→∞ j→∞<br />
Ist nun umgekehrt ∫ Ω ‖ν x‖ M = |Ω|, dann schließen wir<br />
Ω<br />
Ω<br />
lim lim inf |{|w k j<br />
| > m + 1}| = 0. (5.12)<br />
m→∞ j→∞<br />
Da auch jede Telfolge von (w kj ) das Young-Maß ν generiert, bleibt diese Aussage<br />
auch für alle Teilfolgen von (w kj ) richtig. Das zeigt, dass sogar<br />
lim sup |{|w kj | > m + 1}| = 0<br />
m→∞<br />
j<br />
gilt: Wäre dies nicht <strong>der</strong> Fall, so gäbe es ein ε > 0, natürliche Zahlen m 1 < m 2 <<br />
. . . und Indizes j(m 1 ), j(m 2 ), . . . mit<br />
|{|w kj(mi ) | > m i + 1}| ≥ ε ∀ i.<br />
Da für endlich viele Folgenglie<strong>der</strong> w k1 , w k2 , . . ., w kN stets<br />
lim<br />
sup<br />
m→∞ j=1,...,N<br />
|{|w kj | > m + 1}| = 0<br />
ist, gilt j(m i ) → ∞ mit m i → ∞. Ggf. nach Übergang zu einer weiteren Teilfolge<br />
ist dann i ↦→ j(m i ) streng monoton in i und wir erhalten eine Teilfolge (w kj (m i )) i<br />
von (w kj ) j mit<br />
lim inf<br />
i→∞ |{|w k j(mi ) | > m + 1}| ≥ ε ∀ m > 0<br />
im Wi<strong>der</strong>spruch zu (5.12).<br />
110
(v) Sei f(w kj ) relativ schwach folgenkompakt in L 1 (A). Mit Hilfe des Satzes<br />
von Dunford-Pettis 8 sieht man leicht, dass dies genau dann <strong>der</strong> Fall ist, wenn<br />
sowohl f + (w kj ) als auch f − (w kj ) relativ schwach folgenkompakt in L 1 (A) sind.<br />
Wir können also o.B.d.A. f ≥ 0 voraussetzen. Setze f m := θ m f ∈ C c (R d ), wobei<br />
θ m wie in (5.11) definiert ist.<br />
Wir zeigen zunächst, dass für alle ϕ ∈ L ∞ (A)<br />
∫ ∫<br />
lim<br />
m→∞<br />
A<br />
ϕf m (w kj ) =<br />
gleichmäßig in j gilt: Da f ≥ 0 ist, gilt<br />
∫<br />
∣ ϕ ( f m (w kj ) − f(w kj ) )∣ ∫<br />
∣∣ ≤ C<br />
A<br />
∫<br />
∫<br />
≤ C f(w kj ) + C<br />
≤ C sup<br />
j<br />
{f(w kj )≥M}<br />
∫<br />
{f(w kj )≥M}<br />
A<br />
ϕf(w kj ) (5.13)<br />
{|w kj |≥m}<br />
f(w kj )<br />
{|w kj |≥m,f(w kj ) 0. Nun ist (f(w kj )) nach dem Satz von Dunford-Pettis gleichgradig integrierbar<br />
auf A, so dass zu ε > 0 ein M existiert mit C sup j<br />
∫{f(w kj )≥M} f(w k j<br />
) < ε 2 .<br />
Wählt man nun m – unabhängig von j – hinreichend groß, so wird nach <strong>der</strong> schon<br />
bewiesenen Aussage (iv) auch CM sup j |{|w kj | ≥ m}| < ε . Dies zeigt die Behauptung.<br />
2<br />
Nun gilt für f m ∈ C c (R d ) nach (ii)<br />
∫ ∫<br />
ϕf m (w kj ) = ϕ〈ν x , f m 〉.<br />
lim<br />
j→∞<br />
A<br />
lim<br />
j→∞<br />
A<br />
Mit Hilfe <strong>der</strong> gleichmäßigen Konvergenz in (5.13) folgt daraus dann<br />
∫<br />
∫ ∫<br />
ϕf(w kj ) = lim ϕ〈ν x , f m 〉 = ϕ〈ν x , f〉,<br />
m→∞<br />
A<br />
wobei sich die letzte Gleichheit aus dem Satz von <strong>der</strong> monotonen Konvergenz<br />
ergibt, indem man ∫ A ϕ〈ν x, f m 〉 = ∫ {ϕ
Ist supp ν x ⊂ K f.f.a. x, so ist auch 〈ν x , f〉 = 0 f.f.a. x. Mit f ∈ L ∞ ∩ C folgt<br />
an<strong>der</strong>erseits aus (v), dass f(w kj ) ⇀ ¯f in L 1 konvergiert, so dass insbeson<strong>der</strong>e<br />
∫<br />
f(wkj ) → 0 gilt. Dann aber ist für alle ε > 0<br />
|{dist(w kj , K) ≥ ε}| ≤ 1 ε<br />
∫<br />
{dist(w kj ,K)≥ε}<br />
f(w kj ) → 0.<br />
Beispiele:<br />
□<br />
1. Sei h : R → R 1-periodisch mit<br />
{<br />
a, 0 ≤ x < λ,<br />
h(x) =<br />
b, λ ≤ x < 1,<br />
a, b ∈ R, λ ∈ [0, 1].<br />
Definiere w k : [0, 1] → R durch w k (x) := h(kx). Dann gilt w ∗ k ⇀ w in<br />
L ∞ (0, 1) mit w ≡ λa + (1 − λ)b (Übung) und genauso konvergiert f(w k )<br />
schwach* gegen die Konstante Funktion λf(a)+(1 −λ)f(b) in L ∞ (0, 1) für<br />
alle f : R → R. Dies zeigt, dass (w k ) das Young-Maß (ν x ) mit<br />
ν x = λδ a + (1 − λ)δ b<br />
∀ x<br />
generiert. Beachte, dass ν x hier nicht von x abhängt. Man sagt in diesem<br />
Fall, das Young-Maß ν ist homogen.<br />
2. Allgemeiner sei h ∈ L 1 loc (Rn ) periodisch mit Einheitszelle [0, 1] n , d.h. f(x +<br />
z) = f(x) für alle z ∈ Z. Definiere w k : [0, 1] n → R durch w k (x) := h(kx).<br />
Dann gilt für alle f ∈ C 0 (R) (Übung)<br />
∫<br />
f(w k ) ⇀ ∗ const. = f(h(z)) dz in L ∞ ([0, 1] n ).<br />
[0,1] n<br />
(w k ) generiert also das homogene Young-Maß ν, wobei ν x das Bildmaß des<br />
Lebesgue-Maßes auf [0, 1] n unter <strong>der</strong> Abbildung h ist:<br />
ν x (A) = |(h| [0,1] n) −1 (A)| = |[0, 1] n ∩ h −1 (A)|<br />
∀x.<br />
3. Wir können nun insbeson<strong>der</strong>e die eingangs gestellten Fragen nach universellen<br />
Eigenschaften von minimierenden Folgen des Funktionals<br />
I(u) =<br />
∫ 1<br />
0<br />
((u ′ ) 2 − 1) 2 + u 2 , u ∈ W 1,4<br />
0<br />
rigoros beantworten. Sei (u k ) eine solche minimierende Folge, w k := u ′ k .<br />
Dann gibt es eine Teilfolge (w kj ) die ein Young-Maß ν induziert. Da (w k )<br />
112
eschränkt in L 4 ist, gilt ‖ν x ‖ M = 1 f.f.a. x (s. Bemerkung 5.33,3 mit<br />
Φ(t) = t 4 ).<br />
Zu ε > 0 wähle nun δ > 0, so dass (x 2 −1) 2 < δ =⇒ max{|x−1|, |x+1|} <<br />
ε. Dann gilt<br />
|{dist(w kj , {−1, 1}) ≥ ε}| ≤ |{(w 2 k j<br />
− 1) 2 ≥ δ}|<br />
≤ 1 δ<br />
∫ 1<br />
0<br />
(w 2 k j<br />
− 1) 2 ≤ 1 δ I(u k j<br />
) → 0<br />
mit j → ∞. Dann aber folgt aus Satz 5.31(iii) supp ν x ⊂ {−1, 1} f.f.a. x.<br />
Zus<strong>am</strong>menfassend können wir festhalten, dass es λ(x) ∈ [0, 1] gibt, so dass<br />
ν x = λ(x)δ −1 + (1 − λ(x))δ 1<br />
ist.<br />
Aus Bemerkung 5.33,4 folgt nun<br />
u ′ k j<br />
= w kj ⇀ w in L 4<br />
mit<br />
∫<br />
w(x) = 〈ν x , id〉 = y dν x (y) = −λ(x) + (1 − λ(x)) = 1 − 2λ(x).<br />
R<br />
An<strong>der</strong>erseits gilt wegen I(u k ) → 0 auch u kj → 0 in L 2 und somit<br />
∫ ∫<br />
wϕ = lim<br />
u kj ϕ ′ = 0<br />
j→∞<br />
∫<br />
w kj ϕ = lim<br />
j→∞<br />
∫<br />
u ′ k j<br />
ϕ = − lim<br />
j→∞<br />
für ϕ ∈ Cc ∞ (0, 1). Es muss also w ≡ 0 sein, d.h. λ(x) = 1 2<br />
(w kj ) generiert also das homogene Young-Maß<br />
f.f.a. x.<br />
ν x = 1 2 (δ −1 + δ 1 ) f.f.a. x.<br />
Da ν dadurch eindeutig gegeben ist, wird ν sogar von <strong>der</strong> ganzen Folge (u ′ k )<br />
erzeugt.<br />
Bevor wir uns weiteren Anwendungen zuwenden, wollen wir noch präzisieren,<br />
in welchem Sinne ein von (w k ) erzeugtes Young-Maß als Werte-Statistik von w k (x)<br />
für große k aufzufassen ist. Sei Ω ⊂ R n offen, so dass B δ (x) ⊂ Ω für hinreichend<br />
kleine δ > 0 ist. Durch<br />
∫<br />
〈ν (k)<br />
x,δ , f〉 = − f(w k (z)) dz<br />
B δ (x)<br />
113
wird dann ein lineares Funktional auf C 0 (R d ), also ein Maß ν (k)<br />
x,δ auf Rd definiert,<br />
das “die Wahrscheinlichkeit misst, dass w k (z) in dy liegt für z ∈ B δ (x)”:<br />
ν (k)<br />
x,δ (A) = − ∫<br />
B δ (x)<br />
χ A (w k (z)) dz =<br />
1<br />
|B δ (x)| |{z ∈ B δ(x) : w k (z) ∈ A}|,<br />
d.h. ν (k)<br />
x,δ ist das Bildmaß <strong>der</strong> Gleichverteilung auf B δ(x) unter w k .<br />
Korollar 5.34 Es gilt<br />
lim lim<br />
δց0 k→∞ ν(k) x,δ = ν x<br />
in <strong>der</strong> schwach*-Topologie auf M(R d ) für fast alle x ∈ Ω.<br />
Beweis. Für f ∈ C 0 (R d ) gilt f(w k ) ⇀ ∗ ¯f mit ¯f(z) = 〈ν z , f〉, so dass<br />
∫<br />
lim<br />
k→∞ 〈ν(k) x,δ<br />
, f〉 = lim − f(w k (z)) dz = − 〈ν z , f〉 dz.<br />
k→∞<br />
∫B δ (x)<br />
B δ (x)<br />
Dies zeigt<br />
ν (k)<br />
x,δ<br />
∫<br />
∗<br />
⇀ ν x,δ für 〈ν x,δ , f〉 = −<br />
B δ (x)<br />
〈ν z , f〉 dz.<br />
Für festes f ∈ C 0 (R d ) ist nun fast jedes x ∈ Ω ein Lebesgue-Punkt von ¯f, so<br />
dass<br />
∫<br />
lim 〈ν x,δ, f〉 = lim − 〈ν z , f〉 dz = 〈ν x , f〉<br />
δց0 δց0<br />
B δ (x)<br />
für fast alle x folgt. D<strong>am</strong>it gilt aber auch<br />
lim 〈ν x,δ, f〉 = 〈ν x , f〉<br />
δց0<br />
auf einer abzählbar dichten Teilmenge von C 0 (R d ) für alle x ∈ Ω \ N, N eine<br />
geeignete Nullmenge. Da nun ‖ν x,δ ‖ M ≤ 1 ist für alle δ und x, so dass jede<br />
Teilfolge konvergente Teilfolgen besitzt, zeigt dies, dass für x /∈ N tatsächlich<br />
ν x,δ ∗ ⇀ ν x mit δ ց 0<br />
gilt.<br />
□<br />
Bemerkung 5.35 Gemäß dieser Interpretation des Young-Maßes als Werte-<br />
Statistik kann man erwarten, dass starke Konvergenz voliegt, wenn jedes ν x bei<br />
einem einzigen Wert konzentriert ist. Tatsächlich gilt:<br />
Beweis: Übung.<br />
w k → w d.M.n ⇐⇒ ν x = δ w(x) f.f.a. x.<br />
114
Zur Anwendung von Young-Maßen auf Integralfunktionale geben wir zunächst<br />
die folgenden beiden Sätze (ohne Beweis) an.<br />
Satz 5.36 w k : Ω → R d generiere das Young-Maß ν. Es sei f : Ω × R d → R<br />
stetig und nach unten beschränkt. Dann gilt<br />
∫<br />
∫ ∫<br />
lim inf f(x, w k (x)) dx ≥ f(x, y) dν x (y) dx.<br />
k→∞<br />
Ω<br />
Ω R d<br />
Ist (f(·, w k (·))) k schwach relativ folgenkompakt in L 1 (Ω), so gilt sogar<br />
f(·, w k (·)) ⇀ ¯f in L 1 (Ω), ¯f(x) =<br />
∫R d f(x, y) dν x (y).<br />
Satz 5.37 Es seien u k : Ω → R d , v k : Ω → R d′ Funktionenfolgen, so dass<br />
u k → u fast überall konvergiere und (v k ) das Young-Maß ν generiere. Dann<br />
erzeugt (u k , v k ) : Ω → R d+d′ das Young-Maß x ↦→ δ u(x) ⊗ ν x .<br />
Wir untersuchen nun die Unterhalbstetigkeit des Funktionals<br />
∫<br />
I(u) = f(x, u(x), Du(x)) dx<br />
Ω<br />
auf W 1,p (Ω; R m ), p > 1. Gilt u k ⇀ u in W 1,p , so gibt es eine Teilfolge (wie<strong>der</strong> mit<br />
u k bezeichnet), so dass u k → u fast überall konvergiert und (Du k ) ein Young-Maß<br />
ν erzeugt. Nach Satz 5.37 erzeugt dann (u k , Du k ) das Young-Maß δ u(x) ⊗ ν x .<br />
Nach Satz 5.36 wie<strong>der</strong>um gilt dann für stetiges nach unten beschränktes f<br />
∫<br />
∫ ∫<br />
lim inf f(x, u k (x), Du k (x)) dx ≥ f(x, y, z) dδ u(x) ⊗ ν x (y, z) dx<br />
k→∞<br />
Ω<br />
∫Ω<br />
∫<br />
∫R m R m×n<br />
= f(x, u(x), z) dν x (z) dx.<br />
Ω R m×n<br />
Unterhalbstetigkeit für I ergäbe sich also, wenn wir<br />
∫<br />
R m×n g(z) dν x (z) ≥ g(〈ν x , id〉) (5.14)<br />
mit g = f(x, u(x), ·) abschätzen könnten. (Beachte 〈ν x , id〉 = Du(x).) Im Folgenden<br />
werden wir sehen, dass das gerade für quasikonvexe Funktionen richtig<br />
ist.<br />
Dazu müssen wir die von Gradienten induzierten Young-Maße genauer untersuchen.<br />
Wir setzen im Folgenden voraus, dass Ω ⊂ R n offen und beschränkt mit<br />
C 1 -Rand (o<strong>der</strong> auch nur Lipschitz-Rand) ist.<br />
115
Definition 5.38 ν ∈ L ∞ w ∗(Ω; M(Rd )) heißt W 1,p -Gradienten-Young-Maß (o<strong>der</strong><br />
kurz W 1,p -GYM), wenn es eine Folge (u k ) ⊂ W 1,p (Ω; R m ) gibt, so dass<br />
u k ⇀ u in W 1,p (Ω; R m ) (bzw. “ ∗ ⇀” falls p = ∞)<br />
und<br />
gelten.<br />
δ Duk ∗ ⇀ ν in L ∞ w ∗(Ω; M(Rd ))<br />
Die folgenden Sätze, die wir wie<strong>der</strong> ohne Beweis angeben, liefern eine vollständige<br />
Charakterisierung <strong>der</strong> GYMs:<br />
Satz 5.39 ν ∈ L ∞ w ∗(Ω; M(Rd )) ist ein W 1,∞ -GYM genau dann, wenn ν x ≥ 0 f.ü.<br />
ist und es eine kompakte Menge K und ein u ∈ W 1,∞ (Ω; R m ) gibt, so dass gilt:<br />
(i) supp ν x ⊂ K f.f.a. x,<br />
(ii) 〈ν x , id〉 = Du(x) f.f.a. x und<br />
(iii) 〈ν x , f〉 ≥ f(〈ν x , id〉) f.f.a. x für alle quasikonvexen Funktionen f : R m×n →<br />
R.<br />
Die Version für p < ∞ dieses Satzes lautet<br />
Satz 5.40 ν ∈ L ∞ w ∗(Ω; M(Rd )) ist ein W 1,p -GYM, p < ∞, genau dann, wenn<br />
ν x ≥ 0 f.ü. ist und es ein u ∈ W 1,p (Ω; R m ) gibt, so dass gilt:<br />
(i) ∫ ∫<br />
|F | p dν<br />
Ω R m×n x (F) dx < ∞,<br />
(ii) 〈ν x , id〉 = Du(x) f.f.a. x und<br />
(iii) 〈ν x , f〉 ≥ f(〈ν x , id〉) f.f.a. x für alle quasikonvexen Funktionen f : R m×n →<br />
R, die einer Wachstumsbedingung <strong>der</strong> Form |f(F)| ≤ C(1+|F | p ) genügen.<br />
Dieser Satz zeigt insbeson<strong>der</strong>e, dass (5.14) tatsächlich für alle quasikonvexen<br />
Funktionen g unter geeigneten Wachstumsvoraussetzungen gilt.<br />
GYMs verhalten sich also in gewisser Hinsicht ‘dual’ zu den quasikonvexen<br />
Funktionen: Während quasikonvexe Funktionen die Jensensche Ungleichung für<br />
alle Gradientenfel<strong>der</strong> erfüllen, erfüllen die Gradienten-Young-Maße die Jensensche<br />
Ungleichung für alle quasikonvexen Funktionen.<br />
Wie wir zu Beginn dieses Abschnitts gesehen haben, liefern die Young-Maße<br />
aber gerade auch dann wertvolle Informationen, wenn die Integranden nicht quasikonvex<br />
sind und ein Minimierer im Allgemeinen nicht angenommen wird. Ähnlich<br />
wie man für manche <strong>Differentialgleichungen</strong>, die keine klassische Lösung besitzen,<br />
immer noch ‘schwache Lösungen’ konstruieren kann, kann auch <strong>der</strong> Definitionsbereich<br />
eines Integralfunktionals geeignet erweitert werden, so dass ‘verallgemeinerte<br />
Minimierer’ existieren.<br />
116
Betrachte das Funktional<br />
∫<br />
I(u) = f(Du)<br />
Ω<br />
auf<br />
A = {u ∈ W 1,p (Ω; R m ) : u − g ∈ W 1,p<br />
0 }.<br />
Wir setzen I zu einem Funktional J auf die Menge<br />
Y := {ν : Ω → M(R m×n ) : ν ist W 1,p -GYM mit 〈ν x , id〉 = Du für ein u ∈ A}<br />
gemäß<br />
∫<br />
J(ν) =<br />
Ω<br />
〈ν x , f〉 dx<br />
fort. Es gilt dann <strong>der</strong> folgende Satz (o. Beweis):<br />
Satz 5.41 Sei p > 1, f stetig mit c 1 |F | p −c 2 ≤ f(F) ≤ c 2 (1+|F | p ) für geeignete<br />
Konstanten c 1 , c 2 > 0. Dann gilt<br />
inf<br />
A I = min<br />
Y J.<br />
Die Minimierer von J sind gerade die von den minimierenden Folgen erzeugten<br />
GYMs.<br />
Insbeson<strong>der</strong>e hat I einen Minimierer in A genau dann, wenn ein Minimierer<br />
ν von J existiert, so dass ν x ein Dirac-Maß ist f.f.a. x.<br />
5.7 Mikrostrukturen und L<strong>am</strong>inate<br />
In Satz 5.21 haben wir gesehen, dass Quasikonvexität Rang-1-Konvexität impliziert.<br />
Die wesentliche Konstruktion im Beweis dafür war eine Feinschichtung<br />
von Lagen mit Deformationsgradient A bzw. B, Rang(A − B) = 1, so dass die<br />
resultierende gemittelte Deformation λA+(1−λ)B ergab. Iteriert man diese Konstruktion,<br />
so gelangt man zum Begriff des L<strong>am</strong>inats. Dabei handelt es sich um<br />
diejenigen homogenen GYMs (also Maße), die durch Deformationen solcher Art<br />
induziert werden. (Mehr Einzelheiten hierzu, insbeson<strong>der</strong>e die exakte Definition<br />
von L<strong>am</strong>inaten, findet man in [Mü].)<br />
Die interessante Frage ist nun, ob tatsächlich alle GYMs auf diese Weise<br />
entstehen. Wie wir im letzten Abschnitt bemerkt haben, sind die GYMs gerade<br />
die verallgemeinerten Minimierer von Integralfunktionalen, die von Gradienten<br />
abhängen. Sie verschlüsseln die Mikrostrukturen, die von den minimierenden<br />
Funktionenfolgen dieser Funktionale erzeugt werden. Unsere Frage lautet also:<br />
Sind alle Mikrostrukturen L<strong>am</strong>inate<br />
117
Es stellt sich nun heraus, dass – ähnlich wie GYMs die dualen Objekte zu den<br />
quasikonvexen Funktionen sind – die L<strong>am</strong>inate dual zu den Rang-1-konvexen<br />
Funktionen sind. (Ein Wahrscheinlichkeitsmaß mit kompaktem Träger ist genau<br />
dann ein L<strong>am</strong>inat, wenn die Jensensche Ungleichung für alle Rang-1-konvexen<br />
Funktionen erfüllt ist.) Daraus ergibt sich schließlich, dass unsere Frage äquivalent<br />
zu <strong>der</strong> schon früher erörterten Frage<br />
Gilt Quasikonvexität =⇒ Rang-1-Konvexität<br />
ist.<br />
Die Vermutung von Morrey aus dem Jahre 1952, dass das nicht stimmt, wurde<br />
erst 1993 von Šverák bewiesen. Zum Schluss dieser Vorlesung geben wir hier<br />
seinen Beweis wie<strong>der</strong>. In Anwendung auf die mathematische Theorie <strong>der</strong> Materialwissenschaften<br />
bedeutet dies, dass es Mikrostrukturen gibt, die komplizierter<br />
sind als selbst auf verschiedensten Skalen beliebig verschachtelte Materialschichtungen.<br />
Satz 5.42 Es sei m ≥ 3, n ≥ 2. Dann gibt es eine Rang-1-konvexe Funktion<br />
f : R m×n → R, die nicht quasikonvex ist.<br />
Wir benötigen die folgende nützliche Charakterisierung <strong>der</strong> Quasikonvexität.<br />
Lemma 5.43 f : R m×n → R ist quasikonvex genau dann, wenn<br />
∫<br />
f(F + Dϕ(x)) dx ≥ f(F)<br />
Q<br />
für alle ϕ ∈ W 1,∞ (R n ), die Q = (0, 1) n -periodisch sind, gilt.<br />
Direkt aus <strong>der</strong> Definition 5.17 ergibt sich, dass diese Bedingung hinreichend<br />
für die Quasikonvexität von f ist.<br />
Ist nun umgekehrt f als quasikonvex vorausgesetzt, so wähle Abschneidefunktionen<br />
θ k ∈ Cc ∞(Rn ) mit 0 ≤ θ k ≤ 1, θ k ≡ 1 auf (−k + 1, k − 1) n , θ k ≡ 0 auf<br />
R n \ (−k, k) n und |Dθ k | ≤ C. Für ϕ k = θ k ϕ folgt dann<br />
∫<br />
∫<br />
(2k) n f(F + Dϕ) = f(F + Dϕ)<br />
Q<br />
(−k,k)<br />
∫<br />
n<br />
≥ f(F + Dϕ k ) − Ck n−1 ≥ (2k) n f(F) − Ck n−1 .<br />
(−k,k) n<br />
Teilt man durch (2k) n und lässt k → ∞ gehen, so erhält man die Behauptung.<br />
□<br />
Beweis von Satz 5.42. O.B.d.A. sei m = 3 und n = 2. Betrachte die (0, 1) 2 -<br />
periodische Funktion u : R 2 → R 3 mit<br />
u(x) = 1<br />
2π<br />
⎛<br />
⎝<br />
⎞<br />
sin 2πx<br />
sin 2πy ⎠.<br />
sin 2π(x + y)<br />
118
Es gilt<br />
so dass<br />
⎛<br />
cos 2πx 0<br />
⎞<br />
Du(x) = ⎝ 0 cos 2πy ⎠ ,<br />
cos 2π(x + y) cos 2π(x + y)<br />
⎧⎛<br />
⎞ ⎫<br />
⎨ r 0 ⎬<br />
L := span{Du(x) : x ∈ R 2 } = ⎝0 s⎠ : r, s, t ∈ R<br />
⎩<br />
⎭<br />
t t<br />
ist. Beachte, dass die einzigen Rang-1-Geraden in L die Geraden von <strong>der</strong> Form<br />
F + Ra ⊗ b mit<br />
⎛ ⎞ ⎛ ⎞ ⎛ ⎞<br />
1 0 0 0 0 0<br />
a ⊗ b = ⎝0 0⎠ , ⎝0 1⎠ o<strong>der</strong> ⎝0 0⎠<br />
0 0 0 0 1 1<br />
sind.<br />
Betrachte nun die Funktion g : L → R mit<br />
⎛ ⎞<br />
r 0<br />
g ⎝0 s⎠ = −rst.<br />
t t<br />
Offenbar ist g Rang-1-affin auf L. Außerdem gilt<br />
∫ ∫<br />
g(Du) = − cos 2πx cos 2πy cos 2π(x + y)<br />
(0,1) 2 (0,1) 2<br />
=<br />
∫ 1 ∫ 1<br />
0<br />
0<br />
− cos 2 2πx cos 2 2πy + cos 2πx sin 2πx cos 2πy sin 2πy<br />
= − 1 2 · 1<br />
2 + 0 = −1 4 < 0 = g(0).<br />
Der Beweis ist hier jedoch noch nicht beendet, da g ja nur auf L definiert ist.<br />
Wir konstruieren nun auf ganz R 3×2 eine Rang-1-konvexe Funktion, die auf L<br />
nahe bei g liegt: Es sei P die orthogonale Projektion von R 3×2 auf L. Setze<br />
f ε,k (F) = g(PF) + ε ( |F | 2 + |F | 4) + k|F − PF| 2 .<br />
Wir überlegen uns zunächst, dass für jedes ε > 0 ein k(ε) > 0 existiert, so<br />
dass f ε,k Rang-1-konvex ist: Wäre dies nicht <strong>der</strong> Fall, so gäbe es ε > 0, so dass<br />
kein f ε,k , k ∈ N Rang-1-konvex ist. Da die f ε,k glatte Funktionen sind, bedeutet<br />
das, dass es zu jedem k ∈ N Matrizen F k ∈ R 3×2 und Vektoren a k ∈ R 3 , b k ∈ R 2<br />
mit |a k | = |b k | = 1 existieren, so dass<br />
D 2 f ε,k (F k )(a k ⊗ b k , a k ⊗ b k ) ≤ 0. (5.15)<br />
119
Nun ist<br />
D 2 f ε,k (F)(X, X) (5.16)<br />
= D 2 g(PF)(PX, PX) + 2ε|X| 2 + ε ( 4|F | 2 |X| 2 + 8|F : X| 2) + k|X − PX| 2 .<br />
(5.17)<br />
Da g(PF) kubisch in F ist, skaliert D 2 g(PF) linear in F. Aus (5.15) und (5.16)<br />
ergibt sich d<strong>am</strong>it, dass |F k | ≤ C beschränkt ist. (Beachte |a k ⊗b k | = |a k |·|b k | = 1.)<br />
Nach Übergang zu Teilfolgen (wie<strong>der</strong> mit k indiziert) erhalten wir<br />
F k → F, a k → a, b k → b.<br />
Im Limes k → ∞ folgt dann aber aus (5.15) und (5.16)<br />
D 2 g(PF)(Pa ⊗ b, Pa ⊗ b) + 2ε + j|a ⊗ b − Pa ⊗ b| 2 ≤ 0 ∀ j > 0.<br />
Daher ist Pa ⊗ b = a ⊗ b, also a ⊗ b ∈ L. Die Abbildung t ↦→ g(PF + tPa ⊗ b)<br />
ist also Rang-1-affin, so dass D 2 g(PF)(Pa⊗b, Pa⊗b) = 0 ist. Zus<strong>am</strong>mengefasst<br />
ergibt sich <strong>der</strong> Wi<strong>der</strong>spruch 2ε ≤ 0.<br />
Wir können also ε > 0 so klein wählen, dass<br />
∫ ∫<br />
f ε,k(ε) (Du) = g(Du) + ε ( |Du| 2 + |Du| 4) < 0 = f ε,k(ε) (0),<br />
Q<br />
Q<br />
f ε,k(ε) aber Rang-1-konvex ist.<br />
□<br />
120
Literaturverzeichnis<br />
[Br 07b] M. Brokate: <strong>Partielle</strong> <strong>Differentialgleichungen</strong> II. Vorlesungsskript TU<br />
München 2007. (http://www-m6.ma.tum.de/∼brokate/pde ss07.pdf)<br />
[Da] B. Dacorogna: Direct Methods in the Calculus of Variations. Second edition.<br />
Springer-Verlag, Berlin · Heidelberg · New York 2008.<br />
[DU] J. Diestel, J. J. Uhl: Vector Measures. American Mathematical Society,<br />
Providence, RI 1977.<br />
[Ed] R. E. Edwards: Functional Analysis. Holt, Rinehart and Winston, New<br />
York, 1965.<br />
[Ev] L. C. Evans: Partial Differential Equations. Graduate Studies in Mathematics<br />
19. American Mathematical Society, Providence, RI, 1998.<br />
[FL] W. Fischer, I. Lieb: Funktionentheorie. Vieweg, Braunschweig · Wiesbaden,<br />
1988.<br />
[Fo] G. B. Folland: Introduction to Partial Differential Equations. Princeton<br />
University Press, Princeton, NJ 1995.<br />
[Mü] S. Müller: Variational models for microstructure and phase<br />
transitions. Lecture notes MPI MIS Leipzig 1998.<br />
(http://www.mis.mpg.de/preprints/ln/lecturenote-0298.pdf)<br />
[Sch 09] B. Schmidt: <strong>Partielle</strong> <strong>Differentialgleichungen</strong>. Vorlesungsskript<br />
TU München 2009. (http://wwwm7.ma.tum.de/foswiki/pub/M7/Analysis/PDE08/April<br />
21.pdf)<br />
[Te] R. Tem<strong>am</strong>: Navier Stokes Equations. Theory and numerical analysis. Elsevier,<br />
Amsterd<strong>am</strong> · New York · Oxford 1974.<br />
[We] D. Werner: Funktionalanalysis. Springer-Verlag, Berlin · Heidelberg · New<br />
York 2000.<br />
[Wl] J. Wloka: <strong>Partielle</strong> <strong>Differentialgleichungen</strong>. Teubner, Stuttgart, 1982.<br />
121