Gew¨ohnliche Differentialgleichungen und Dynamische Systeme
Gew¨ohnliche Differentialgleichungen und Dynamische Systeme
Gew¨ohnliche Differentialgleichungen und Dynamische Systeme
Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.
YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.
Gewöhnliche <strong>Differentialgleichungen</strong><br />
<strong>und</strong><br />
<strong>Dynamische</strong> <strong>Systeme</strong><br />
Vorlesungsskript 1 2<br />
Prof. Dr. Guido Schneider<br />
Mathematisches Institut I<br />
Universität Karlsruhe<br />
Sommersemester 2004<br />
1 Dies ist bislang nur ein Entwurf, welcher noch zahlreiche Fehler enthält. Diese Inhaltsangabe kann <strong>und</strong> soll<br />
kein Ersatz zum Studium existierender Literatur sein.<br />
2 mit Ergänzungen von Dr. Hannes Uecker
Zusammenfassung<br />
Im Mittelpunkt der Vorlesung steht das qualitative Verhalten der Lösungen gewöhnlicher<br />
<strong>Differentialgleichungen</strong> <strong>und</strong> allgemeiner von <strong>Dynamische</strong>n <strong>Systeme</strong>n. Es wird erklärt werden,<br />
wieso es prinzipiell unmöglich ist, trotz immer besserer Rechner, gute Langzeitwettervorhersagen<br />
zu machen oder wieso nahezu identische Klimamodelle zu unterschiedlichsten<br />
Ergebnissen führen. Dazu wird der Begriff des chaotischen <strong>Dynamische</strong>n Systems<br />
definiert <strong>und</strong> zahlreiche niedrigdimensionale Beispiele werden untersucht. Es werden Wege<br />
ins Chaos, wie Periodenverdopplung oder homokline Explosionen vorgestellt. Weitere<br />
Themen sind: Existenz <strong>und</strong> Eindeutigkeit der Lösungen, Lineare <strong>Systeme</strong> mit konstanten<br />
<strong>und</strong> periodischen Koeffizienten, Stabilität <strong>und</strong> Instabilität von Fixpunkten <strong>und</strong> periodischen<br />
Lösungen, Verzweigungstheorie <strong>und</strong> der Zentrumsmannigfaltigkeitensatz, stabile<br />
<strong>und</strong> instabile Mannigfaltigkeiten, homokline <strong>und</strong> heterokline Lösungen, Satz von der Begradigung,<br />
Gradientensysteme, omega-Limesmengen, Melnikov-Chaos, Silnikov-Chaos,<br />
der Lorenzattraktor.<br />
2
Inhaltsverzeichnis<br />
1 Einleitung 4<br />
2 Lineare <strong>Systeme</strong> <strong>und</strong> Strukturen 8<br />
2.1 Bezeichnungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8<br />
2.2 Lineare <strong>Systeme</strong> . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9<br />
2.2.1 Allgemeine Betrachtungen . . . . . . . . . . . . . . . . . . . . . . . . 9<br />
2.2.2 Der Lösungsoperator S(t, s) . . . . . . . . . . . . . . . . . . . . . . . 11<br />
2.2.3 Die Variation der Konstanten Formel . . . . . . . . . . . . . . . . . . 11<br />
2.2.4 Die Exponentialmatrix . . . . . . . . . . . . . . . . . . . . . . . . . . 12<br />
2.2.5 Ebene <strong>Systeme</strong> . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14<br />
2.3 Strukturen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16<br />
2.3.1 Stabilität . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16<br />
2.3.2 Invariante Mengen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18<br />
2.3.3 Symmetrien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20<br />
2.4 Lineare <strong>Systeme</strong> mit periodischen Koeffizienten . . . . . . . . . . . . . . . . . 20<br />
3 Nichtlineare <strong>Systeme</strong> 25<br />
3.1 Existenz <strong>und</strong> Eindeutigkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25<br />
3.2 Numerik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30<br />
4 Asymptotische Stabilität 36<br />
4.1 Fixpunkte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36<br />
4.2 Bifurkation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40<br />
4.3 Intervallabbildungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44<br />
4.4 Bemerkungen zu Iterationen in der komplexen Ebene . . . . . . . . . . . . . . 55<br />
4.5 Periodische Lösungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57<br />
5 Dynamik in der Nähe eines Fixpunktes 63<br />
5.1 Der Satz von Hartman-Grobman . . . . . . . . . . . . . . . . . . . . . . . . . 63<br />
5.2 Stabile, Instabile Mannigfaltigkeiten . . . . . . . . . . . . . . . . . . . . . . . 65<br />
5.3 Die Zentrumsmannigfaltigkeit <strong>und</strong> Normalformen . . . . . . . . . . . . . . . . 68<br />
6 Homokline <strong>und</strong> heterokline Lösungen 81<br />
6.1 ω-Limesmengen, Ebene <strong>Systeme</strong>, Gradientensysteme . . . . . . . . . . . . . . 81<br />
6.2 Melnikov-Chaos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84<br />
6.3 Silnikov-Chaos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94<br />
6.4 Der Lorenz-Attraktor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96<br />
3
1 Einleitung<br />
Unter einer Gewöhnlichen Differentialgleichung verstehen wir eine Relation<br />
ẋ = f(x, t) (1)<br />
mit x = x(t) ∈ R d <strong>und</strong> f : U × I ⊂ R d × R → R d mit U offen <strong>und</strong> I ein Intervall. Die Variable<br />
t ∈ I wird als die Zeit bezeichnet. Der Raum R d heißt der Phasenraum.<br />
Ist f stetig in U × I, so heißt eine stetig differenzierbare Funktion x : Ĩ ⊂ I → Rd , welche (1)<br />
erfüllt, Lösung der Gewöhnlichen Differentialgleichung im Intervall Ĩ.<br />
Für lokal Lipschitz-stetiges f ist die lokale Existenz <strong>und</strong> Eindeutigkeit der Lösungen von (1)<br />
wohlbekannt.<br />
Theorem 1.1 (Satz von Picard-Lindelöf [KK74]) Für gegebenes x 0 ∈ R d <strong>und</strong> t 0 ∈ R sei<br />
die Funktion f auf der Menge Q = {(x, t) | |t − t 0 | ≤ α, ‖x − x 0 ‖ R d ≤ β} stetig in t <strong>und</strong><br />
Lipschitz-stetig in x, d.h. es gibt ein L > 0 so dass<br />
‖f(x 1 , t) − f(x 2 , t)‖ R d ≤ L‖x 1 − x 2 ‖ R d<br />
für alle (x j , t) ∈ Q, (j = 1, 2). Weiter möge mit M = max (x,t)∈Q ‖f(x, t)‖ R d die Beziehung<br />
αM ≤ β gelten.<br />
Dann existiert eine eindeutige auf [t 0 − α, t 0 + α] definierte Lösung x = x(t) der Gewöhnlichen<br />
Differentialgleichung (1) mit x| t=t0 = x 0 .<br />
Wir wollen in den ersten beiden Kapiteln voraussetzen, dass dieser Satz gilt <strong>und</strong> diesen erst in<br />
Kapitel 3.1 beweisen.<br />
Für die Lösung x zum Zeitpunkt t mit der Anfangsbedingung x| t=t0 = x 0 schreiben wir im<br />
folgenden x = x(t, t 0 , x 0 ).<br />
Ist die Differentialgleichung (1) autonom, d.h. hängt f nur von x ∈ R d , d.h. f = f(x), so ist x<br />
eine Funktion von t − t 0 <strong>und</strong> nicht von t <strong>und</strong> t 0 .<br />
Lemma 1.2 Für autonome <strong>Differentialgleichungen</strong> (1) ist mit x = x(t, t 0 , x 0 ) auch x = x(t −<br />
s, t 0 − s, x 0 ) für alle s ∈ R eine Lösung von (1).<br />
Beweis: Folgt sofort durch Einsetzen.<br />
Damit können wir für autonome <strong>Differentialgleichungen</strong> stets t 0<br />
abkürzend x = x(t, x 0 ) für x(t, 0, x 0 ).<br />
Es gilt<br />
}<br />
i) x(0, x 0 ) = x 0 ,<br />
ii) x(t + s, x 0 ) = x(t, x(s, x 0 )).<br />
□<br />
= 0 wählen <strong>und</strong> schreiben<br />
(2)<br />
4
Im nichtautonomen Fall lautet dies<br />
i) x(t, t, x 0 ) = x 0 ,<br />
ii) x(t + s + t 0 , t 0 , x 0 ) = x(t + s + t 0 , s + t 0 , x(s + t 0 , t 0 , x 0 )).<br />
}<br />
(3)<br />
Im folgenden interessieren wir uns weniger dafür, unter welchen Voraussetzungen an f Lösungen<br />
von (1) existieren, als vielmehr für die Frage nach dem qualitativen Verhalten der Lösungen<br />
bei hinreichend glattem f. 3<br />
Heute ist die Theorie der Gewöhnlichen <strong>Differentialgleichungen</strong> ein wichtiger Teil der Theorie<br />
der <strong>Dynamische</strong>n <strong>Systeme</strong>. Unter einem <strong>Dynamische</strong>n System verstehen wir eine einparametrige<br />
Abbildung<br />
{<br />
I × X → X<br />
x :<br />
(4)<br />
(t, x 0 ) ↦→ x(t, x 0 )<br />
einer Menge X (der Phasenraum) in sich mit I = R (kontinuierliches D.S.) oder I = N (diskretes<br />
D.S.), welche (2) erfüllt. Gewöhnliche <strong>Differentialgleichungen</strong> gestatten Entwicklungsprozesse<br />
zu untersuchen, die determiniert, endlichdimensional <strong>und</strong> differenzierbar sind.<br />
<strong>Dynamische</strong> <strong>Systeme</strong> finden sich fast überall in der Natur. Beispiele sind:<br />
a) Mechanische <strong>Systeme</strong>: Ein Teilchen mit dem Ortsvektor x(t) ∈ R d , (d = 1, 2, 3) der Masse<br />
m bewegt sich im Kraftfeld F (x). Die Abbildungsvorschrift wird durch die gewöhnliche Differentialgleichung<br />
mẍ = F (x) definiert. Schreiben wir dies in der Form (1), so sehen wir, dass<br />
der Phasenraum durch (x, ẋ) ∈ R 2d gegeben ist.<br />
b) der Aktienkurs einer Firma oder die Bewegung eines Moleküls in einer Flüssigkeit: Ein<br />
Molekül am Ort x(t) ∈ R d bewegt sich unter einer äußeren Kraft f(x) <strong>und</strong> stochastischen<br />
Störungen g(x)ξ(t), d.h. ẋ = f(x) + g(x)ξ(t), bzw. in der Schreibweise der stochastischen<br />
<strong>Differentialgleichungen</strong><br />
dx = f(x)dt + g(x)dW (t),<br />
wobei formal die zeitliche Ableitung des (i.a nur stetigen) Wienerprozesses W (t) das weiße<br />
Rauschen ξ(t) ergibt. Siehe [Arn73, Oks98].<br />
c) die Strömung einer Flüssigkeit: Das Geschwindigkeitsfeld U(x, t) ∈ R 3 am Ort x ∈ Ω ⊂<br />
R 3 zum Zeitpunkt t einer strömenden Flüssigkeit wird beschrieben durch die Navier-Stokes-<br />
Gleichungen, eine partielle Differentialgleichung,<br />
∂ t U = ν∆U − ∇p − (U · ∇)U, (ν ≥ 0),<br />
div U = 0,<br />
U| ∂Ω = 0.<br />
3 Der Satz von Peano [Pea90] garantiert bei stetigem f die Existenz von Lösungen von (1). Die Eindeutigkeit<br />
der Lösungen kann in diesem Fall nicht erwartet werden. Der Beweis beruht auf einem Fixpunktargument für<br />
kompakte Abbildungen.<br />
5
Als Phasenraum kann zum Beispiel<br />
X = {U : Ω → R 3 | U| ∂Ω = 0, div U = 0,<br />
∑ 2 ∑<br />
∫<br />
j=0 j 1 ,j 2 ,j 3 ≥0;j 1 +j 2 +j 3 =j Ω |∂j 1<br />
x 1<br />
∂ j 2<br />
x 2<br />
∂ j 3<br />
x 3<br />
U| 2 dx < ∞}<br />
dienen. Siehe [Hen81, Tem97].<br />
d) Populationsdynamik: Die fortpflanzungsfähige Population x(t) hängt vom Wert x(t − d),<br />
d > 0 fest, ab, d.h. die Abbildungsvorschrift ist eine Delay-Gleichung [Hal88]<br />
ẋ = f(t, x(t − d)).<br />
Als Phasenraum dient z.B. der Raum X = C([0, d], R).<br />
e) Dynamik in C: Wit betrachten die Iteration z n+1 = zn 2 + c, z 0 = 0 mit z j , c ∈ C. Die<br />
Mandelbrotmenge ist durch<br />
M = {c ∈ C | (z n ) n∈N<br />
bleibt beschränkt}<br />
gegeben. Diese Menge ist wie die Juliamenge ein Fraktal ([Man91, PR86]) <strong>und</strong> weist keine<br />
ganzzahlige Dimension auf.<br />
Die Beispiele a)-d) sind kontinuierliche <strong>Dynamische</strong> <strong>Systeme</strong>. Im Fall c) <strong>und</strong> d) sind die Phasenräume<br />
unendlichdimensional. Eine Diskretisierung zur numerischen Behandlung obiger Beispiele<br />
oder eine andere Modellbildung führt auf diskrete <strong>Dynamische</strong> <strong>Systeme</strong> der Form<br />
x n+1 = F (x n , n),<br />
wie im Beispiel e). Solche Abbildungen spielen auch bei der Untersuchung periodischer Lösungen<br />
eine wichtige Rolle. In den obigen Beispielen spielt die metrische Struktur des Phasenraumes<br />
die wichtige Rolle. Wird der Phasenraum als Maßraum verstanden, so spricht man von<br />
Ergodentheorie [Kre85, Wal82]. Dies erlaubt es, komplizierte Dynamik, wie z.B. die Bewegung<br />
von Molekülen in Gasen durch statistische Größen wie z.B. dem Druck zu erfassen. 4<br />
4 Der Birkhoffsche Ergodensatz erlaubt es dann zeitliche Mittelungen durch räumliche Mittelungen zu ersetzen.<br />
6
Geschichte: Die Beschreibung der Mechanik durch <strong>Differentialgleichungen</strong> war eine der wesentlichen<br />
Motivationen zur Erfindung der Differential- <strong>und</strong> Integralrechnung (Newton 1643-<br />
1727, Leibniz 1646-1716). Die Untersuchung Gewöhnlicher <strong>Differentialgleichungen</strong> als <strong>Dynamische</strong>s<br />
System wird durch die Arbeiten von Poincaré 1854-1912 geprägt. Die Untersuchung<br />
gewöhnlicher <strong>Differentialgleichungen</strong> Dies ist <strong>und</strong> bleibt aktuell, da jede räumliche Diskretisierung<br />
Partieller <strong>Differentialgleichungen</strong> auf Gewöhnliche <strong>Differentialgleichungen</strong> führt. Die<br />
Untersuchung dynamischer <strong>Systeme</strong> ist hochaktuell durch die Entdeckungen chaotischer Dynamik<br />
in niedrigdimensionalen <strong>Systeme</strong>n, wie dem Lorenzattraktor [Lor63], oder der Periodenverdopplung<br />
als universellem Weg ins Chaos.<br />
Für einen historischen Hintergr<strong>und</strong> siehe auch<br />
http://www.math-net.de/links/show?collection=math.museum.hist.math<br />
Phaseplane: Um das Lösungsverhalten gewöhnlicher <strong>Differentialgleichungen</strong> numerisch zu<br />
veranschaulichen, benutzen wir das Programmpaket Phaseplane bzw. XPP, für welches die Dateien<br />
direkt in Pittsburgh von B. Ermentrouts Homepage http://www.pitt.edu/˜phase/<br />
herunter geladen werden können.<br />
Literatur: Die Vorlesung basiert auf den Lehrbüchern [GH83, KK74, Ver96]. Weitere hier<br />
verwendete Lehrbücher zu Gewöhnliche <strong>Differentialgleichungen</strong> sind [Ama83, Arn91, CL55,<br />
Hal88].<br />
7
2 Lineare <strong>Systeme</strong> <strong>und</strong> Strukturen<br />
Lineare <strong>Systeme</strong><br />
ẋ = A(t)x + g(t) (5)<br />
spielen eine wichtige Rolle in der Theorie der Gewöhnlichen <strong>Differentialgleichungen</strong>. Dabei ist<br />
• x = x(t) = (x 1 (t), . . . , x d (t)) T ∈ R d .<br />
• A = A(t) ∈ R d×d eine d × d-Matrix mit Komponenten a ij (t).<br />
• g = g(t) = (g 1 (t), . . . , g d (t)) T ∈ R d eine Inhomogenität.<br />
• t ∈ (α 0 , β 0 ) = I 0 ⊂ R mit −∞ ≤ α 0 < β 0 ≤ ∞.<br />
Die lineare Differentialgleichung (5) heißt homogen, falls g(t) ≡ 0, d.h.<br />
ẋ = A(t)x (6)<br />
Wir setzen voraus, dass A <strong>und</strong> g im folgenden stetig von t ∈ I 0 abhängen sollen.<br />
Wir zeigen, dass die Lösungen von (5) einen d-dimensionalen affinen Raum <strong>und</strong> die Lösungen<br />
von (6) einen d-dimensionalen Vektorraum bilden.<br />
Neben der Untersuchung linearer <strong>Systeme</strong> mit a) konstanten Koeffizienten, welche explizit<br />
gelöst werden können, interessieren wir uns für <strong>Systeme</strong> mit b) periodischen Koeffizienten<br />
(Floquet-Theorie). Für <strong>Systeme</strong>, welche c) asymptotisch gegen den konstanten Koeffizientenfall<br />
konvergieren, verweisen wir auf die Literatur über exponentielle Dichotomien.<br />
Diese Untersuchungen sind wichtig für den nichtlinearen Fall, da in zahlreichen Fällen die Stabilität<br />
eines Fixpunktes (Fall a)) oder einer periodischen Lösung (Fall b)) unter Störungen allein<br />
durch das Verhalten der dazugehörigen Linearisierung beantwortet werden kann. Siehe Kapitel<br />
4. Der Fall c) taucht bei der Linearisierung um homokline oder heterokline Lösungen auf <strong>und</strong><br />
spielt bei der Untersuchung chaotischen Verhaltens eine gewisse Rolle.<br />
Ein weiteres Ziel ist es erste Bekanntschaft mit Begriffen <strong>und</strong> Strukturen, wie z.B. Stabilität,<br />
Symmetrien oder Lyapunovfunktionen zu machen.<br />
2.1 Bezeichnungen<br />
Sei X ein reeller oder komplexer Vektorraum. Eine Abbildung<br />
‖ · ‖ :<br />
{<br />
X → R<br />
x ↦→ ‖x‖<br />
heißt Norm, wenn für alle x, y ∈ X <strong>und</strong> λ ∈ R(C) gilt<br />
i) ‖x‖ ≥ 0 <strong>und</strong> ‖x‖ = 0 genau dann wenn x = 0<br />
8
ii) ‖λx‖ = |λ|‖x‖<br />
iii) ‖x + y‖ ≤ ‖x‖ + ‖y‖<br />
Im R d werden meist verwendet:<br />
Die l 1 -Norm ‖x‖ 1 = ∑ d<br />
j=1 |x j|, die euklidische Norm oder l 2 -Norm ‖x‖ 2 = (x T x) 1/2 =<br />
( ∑ d<br />
j=1 |x j| 2 ) 1/2 <strong>und</strong> die l ∞ , Supremums- oder Maximumsnorm ‖x‖ ∞ = sup j=1,...,d |x i |.<br />
Wir bemerken, dass im R d bzw. in C d alle Vektornormen äquivalent sind, d.h. für je zwei Vektornormen<br />
‖ · ‖ <strong>und</strong> ‖ · ‖˜gibt es α, β > 0, so dass für alle x ∈ R d (C d ) gilt<br />
α‖x‖ ≤ ‖x‖˜ ≤ β‖x‖.<br />
Die d × d-Matrizen bilden einen Vektorraum der Dimension d 2 . Sie bilden mit der zusätzlichen<br />
Multiplikationsstruktur A · B eine Algebra. Alle im folgenden auftretenden Matrixnormen<br />
erfüllen<br />
‖A · B‖ ≤ ‖A‖ ‖B‖,<br />
d.h. die Matrizen bilden bezüglich der Multiplikation eine Banachalgebra. Eine wichtige Matrixnorm<br />
ist durch<br />
{ }<br />
‖Ax‖<br />
‖A‖ ∗ = sup<br />
‖x‖ | x ∈ Rd /{0}<br />
gegeben. Matrixnorm <strong>und</strong> Vektornorm heißen verträglich, wenn<br />
‖Ax‖ ≤ ‖A‖ ‖x‖. (gilt für ‖ · ‖ ∗ ).<br />
Beispiele verträglicher Vektor <strong>und</strong> Matrixnormen sind<br />
‖ · ‖ = ‖ · ‖ 1 , ‖A‖ ∗ = sup<br />
k=1,...,d<br />
‖ · ‖ = ‖ · ‖ 2 , ‖A‖ ∗ = (<br />
d∑<br />
|a jk |<br />
j=1<br />
d∑<br />
|a jk | 2 ) 1/2<br />
i,j=1<br />
‖ · ‖ = ‖ · ‖ ∞ , ‖A‖ ∗ = sup<br />
j=1,...,d<br />
d∑<br />
|a jk |.<br />
k=1<br />
Weiter gilt<br />
∫ t ∫ t<br />
‖ x(τ)dτ‖ ≤ ‖x(τ)‖dτ.<br />
t 0 t 0<br />
Im folgenden verwenden wir stets verträgliche Normen.<br />
2.2 Lineare <strong>Systeme</strong><br />
2.2.1 Allgemeine Betrachtungen<br />
Die rechte Seite von (5) ist Lipschitz-stetig, denn es gilt<br />
‖(A(t)x + g(t)) − (A(t)y + g(t))‖ = ‖A(t)(x − y)‖ ≤ ‖A(t)‖‖(x − y)‖.<br />
9
Damit kann für global stetiges g <strong>und</strong> A die globale Existenz- <strong>und</strong> Eindeutigkeit der Lösungen<br />
von (5) nachgewiesen werden.<br />
Theorem 2.1 (5) besitzt für jedes (x 0 , t 0 ) ∈ R d × I 0 genau eine Lösung x(t) = x(t, t 0 , x 0 ) mit<br />
x(t 0 ) = x 0 . Diese Lösung existiert auf ganz I 0 <strong>und</strong> ist dort stetig differenzierbar.<br />
Beweis: Später in Kapitel 3.1.<br />
Wegen des lokalen Existenz- <strong>und</strong> Eindeutigkeitssatzes von Picard-Lindelöf bilden die Lösungen<br />
x = x(t, t 0 , x 0 ) einer nichtlinearen Differentialgleichung ẋ = f(x, t) für x 0 ∈ U ⊂ R d <strong>und</strong> t in<br />
einem Intervall I eine d-dimensionale Mannigfaltigkeit (Fläche) M ⊂ C 1 (I, R d ). Wegen des<br />
Existenz <strong>und</strong> Eindeutigkeitssatzes kann jedem x ∈ M seine Anfangsbedingung x| t=t0 = x 0 ∈<br />
U ⊂ R d zugeordnet werden.<br />
Im linearen Fall (5) gilt folgendes:<br />
Theorem 2.2 Für lineare <strong>Differentialgleichungen</strong> (1) ist die Mannigfaltigkeit M ein d-dimensionaler<br />
affiner Raum. Ist g ≡ 0, so ist M ein d-dimensionaler Vektorraum (Superpositionsprinzip).<br />
□<br />
Beweis: Setze<br />
L :<br />
{<br />
x ↦→ −ẋ + A(t)x,<br />
C 1 (I 0 , R d ) → C 0 (I 0 , R d )<br />
Es gilt L(αx + βy) = αLx + βLy für x, y ∈ C 1 (I 0 , R d ) <strong>und</strong> α, β ∈ R, d.h. L ist ein linearer<br />
Operator. Die Aussage, x löst ẋ = A(t)x, ist äquivalent zu Lx = 0, d.h. die Lösungen bilden<br />
einen Vektorraum im Fall g = 0.<br />
Es seien x <strong>und</strong> y Lösungen von ẋ = A(t)x + g(t), d.h. es gilt Lx = g <strong>und</strong> Ly = g. Dann folgt<br />
L(x − y) = 0. Damit ist M ein affiner Raum.<br />
Wegen des lokalen Existenz- <strong>und</strong> Eindeutigkeitssatzes ist M bereits als d-dimensional bekannt.<br />
□<br />
Konsequenz: Sei x inh irgend eine feste Lösung der inhomogenen Gleichung, d.h. ẋ inh =<br />
A(t)x inh + g(t) <strong>und</strong> {x 1 hom , . . . , xd hom } eine Basis aus Lösungen der homogenen Gleichung,<br />
d.h.<br />
ẋ j hom = A(t)xj hom .<br />
Dann schreibt sich eine allgemeine Lösung x von (5) als<br />
x = x inh + c 1 x 1 hom + ... + c dx d hom<br />
mit c j ∈ R. Die Konstanten c j können zu einer gegebenen Anfangsbedingung x| t=t0 = x 0<br />
berechnet werden, d.h.<br />
x 0 = x inh (t 0 ) + c 1 x 1 hom(t 0 ) + . . . + c d x d hom(t 0 ).<br />
10
Ist g ≡ 0, so gilt:<br />
x(t) = c 1 x 1 hom (t) + . . . + c dx d hom<br />
⎛<br />
(t),<br />
⎞<br />
c 1<br />
= ( x 1 hom (t), . . . , xd hom (t)) ⎜<br />
c 2<br />
⎟<br />
⎝ . ⎠<br />
c d<br />
= φ(t) c.<br />
Jede solche Matrix φ heißt F<strong>und</strong>amentalmatrix. Ist eine F<strong>und</strong>amentalmatrix bekannt, so kann<br />
die Lösung zu ẋ = A(t)x, x| t=t0 = x 0 aus x(t) = φ(t)c <strong>und</strong> x 0 = φ(t 0 )c berechnet werden.<br />
Wir erhalten<br />
x(t, t 0 , x 0 ) = φ(t)φ(t 0 ) −1 x 0 .<br />
2.2.2 Der Lösungsoperator S(t, s)<br />
Wegen des Satzes von Picard-Lindelöf ist φ(t)φ(t 0 ) −1 unabhängig von der speziellen Wahl der<br />
F<strong>und</strong>amentalmatrix φ. wir definieren den linearen Lösungsoperator<br />
{<br />
R d → R d<br />
S(t, s) :<br />
x 0 ↦→ x(t, s, x 0 )<br />
durch die Lösung x = x(t, s, x 0 ) von ẋ = A(t)x zur Anfangsbedingung x| t=s<br />
S(t, s) = φ(t)φ(s) −1 . Offensichtlich gilt:<br />
= x 0 , d.h.<br />
S(t, s) = S(t, τ) ◦ S(τ, s)<br />
S(t, t) = I<br />
Für festes s, t ∈ R ist S(t, s) : R d → R d eine bijektive Abbildung (invertierbare Matrix), mit<br />
S(t, s) −1 = S(s, t). Da diese Abbildung linear ist, ist sie bezüglich x 0 beliebig oft differenzierbar<br />
<strong>und</strong> daher ein Diffeomorphismus von R d nach R d .<br />
2.2.3 Die Variation der Konstanten Formel<br />
Wir betrachten<br />
ẋ = A(t)x + g(t)<br />
<strong>und</strong> wollen die Lösung x = x(t) durch die Inhomogenität g = g(t) <strong>und</strong> den Lösungsoperator<br />
S = S(t, s) ausdrücken. Nach Differenzieren von x(t) = S(t, s)y(t) ergibt sich<br />
ẋ(t) = ∂ t S(t, s)y(t) + S(t, s)ẏ(t)<br />
= A(t)S(t, s)y(t) + g(t).<br />
Da S(t, s) das homogene Problem ∂ t S(t, s) = A(t)S(t, s) löst, ergibt sich<br />
ẏ(t) = S(t, s) −1 g(t) = S(s, t)g(t).<br />
11
Aufintegrieren liefert<br />
y(t) − y(s) =<br />
Nach Rücktransformation erhalten wir<br />
∫ t<br />
s<br />
ẏ(τ)dτ =<br />
∫ t<br />
s<br />
S(s, τ)g(τ)dτ.<br />
∫ t<br />
x(t) = S(t, s)y(t) = S(t, s)y(s) + S(t, s)<br />
S(s, τ)g(τ)dτ<br />
= S(t, s)x(s) +<br />
∫ t<br />
S(t, τ)g(τ)dτ,<br />
s<br />
s<br />
da S(s, s) = I gilt. Dies heisst Variation der Konstanten Formel oder Formel von Duhamel.<br />
2.2.4 Die Exponentialmatrix<br />
Wir betrachten die lineare autonome Gleichung<br />
ẋ = Ax<br />
mit A ∈ R d×d unabhängig von t. Offensichtlich löst mit x = x(t) auch x = x(t − s) die<br />
Differentialgleichung. O.B.d.A können wir daher betrachten<br />
Theorem 2.3 Die Lösung von (7) ist durch<br />
gegeben, d.h. S(t, s) = e A(t−s) .<br />
ẋ = Ax, x| t=0 = x 0 . (7)<br />
x(t) = e At x 0 =<br />
∞∑ (At) n<br />
x 0 , (8)<br />
n!<br />
n=0<br />
Beweis: Die unendliche Summe konvergiert absolut, denn<br />
∞∑<br />
‖e At (At) n<br />
x 0 ‖ ≤ ‖ x 0 ‖ ≤<br />
n!<br />
n=0<br />
≤ e ‖A‖t ‖x 0 ‖.<br />
∞∑ ‖A‖ n t n<br />
‖x 0 ‖<br />
n!<br />
n=0<br />
Einsetzen ergibt<br />
(<br />
d ∑ ∞<br />
dt<br />
n=0<br />
)<br />
(At) n<br />
x 0 =<br />
n!<br />
∞∑<br />
n=1<br />
A(At) n−1<br />
(n − 1)! x 0 = A<br />
∞∑ (At) n<br />
x 0 .<br />
n!<br />
n=0<br />
□<br />
12
Die Exponentialreihe e At kann wie folgt berechnet werden. Die Transformation x = Sy in<br />
ẋ = Ax ergibt ẏ = S −1 ASy = Jy, wobei J die Jordansche Normalform ist, d.h.<br />
beziehungsweise<br />
e At x 0 = Se Jt y 0 = Se Jt S −1 x 0 ,<br />
S −1 e At S = S −1 (1 + At + A2 t 2<br />
+ ...)S<br />
2<br />
= (1 + S −1 ASt + S−1 ASS −1 ASt 2<br />
2<br />
+ ...) = (1 + Jt + J 2 t 2<br />
2 + ...) = eJt .<br />
Damit reicht es e Jt für J eine Matrix in Jordanscher Normalform zu berechnen. Diese ist von<br />
der Form<br />
⎛<br />
⎞ ⎛<br />
⎞<br />
J 1 0<br />
λ j 1 0<br />
J 2 . .. . ..<br />
J =<br />
J 3 mit J j =<br />
. .. . ..<br />
.<br />
⎜<br />
⎝<br />
. ..<br />
⎟ ⎜<br />
⎠ ⎝<br />
. ..<br />
⎟<br />
1 ⎠<br />
0 J r 0 λ j<br />
Da<br />
gilt, reicht es<br />
⎛<br />
e Jt = exp( ⎝<br />
⎞<br />
J 1 0<br />
. .. ⎠ t) =<br />
0 J r<br />
⎛<br />
⎝<br />
e J jt = e (λ j E+N k )t = e λ jEt e N kt<br />
e J ⎞<br />
1t<br />
0<br />
. .. ⎠<br />
0 e Jrt<br />
zu betrachten, wobei die letzte Gleichung wegen EN k = N k E mit der k × k-Matrix<br />
gilt. Übrig bleibt somit die Berechnung von<br />
⎛<br />
⎞<br />
0 1 0<br />
. .. . ..<br />
N k =<br />
. .. . ..<br />
⎜<br />
⎝<br />
.<br />
⎟ .. 1 ⎠<br />
0 0<br />
e N kt =<br />
∞∑<br />
ν=0<br />
t ν<br />
ν! N ν k .<br />
Es gilt aber<br />
N µ k = (δ i,j−µ) µ = 0, ..., k − 1<br />
N µ k<br />
= 0 µ = k, k + 1, ...<br />
13
<strong>und</strong> damit letztendlich<br />
⎛<br />
t<br />
1 t 2<br />
2!<br />
0 1 t<br />
e Nkt =<br />
0<br />
⎜ 0<br />
⎝<br />
. ..<br />
. ..<br />
. ..<br />
t k−1<br />
(k−1)!<br />
0 t<br />
0 1<br />
⎞<br />
.<br />
⎟<br />
⎠<br />
2.2.5 Ebene <strong>Systeme</strong><br />
Es sei x = x(t) ∈ R 2 . Wit wollen den Fluß der Lösungen x = x(t, x 0 ) autonomer homogener<br />
<strong>Differentialgleichungen</strong> (6) in der Ebene graphisch darstellen. Nach obigen Überlegungen<br />
reicht es ẋ = Ax mit A ∈ R 2×2 in Jordanscher Normalform zu betrachten. Es können folgende<br />
Fälle auftreten:<br />
( )<br />
λ1 0<br />
a) A =<br />
ist diagonalisierbar mit a1) λ j ∈ R oder a2) λ 1 = λ 2 . Im Fall a1) unterscheiden<br />
wir i) λ 1 = λ 2 , ii) λ 1 > λ 2 > 0 <strong>und</strong> iii) λ 1 > 0 > λ 2 . Alle weiteren auftretenden Fälle<br />
0 λ 2<br />
ergeben sich aus i)-iii) durch Zeitumkehr t ↦→ −t.<br />
( )<br />
λ 1<br />
b) A = ist ein Jordanblock mit λ j ∈ R<br />
0 λ<br />
Anhand von Beispielen wollen wir die Lösungen veranschaulichen, wobei C im folgenden allgemein<br />
für auftretende Konstanten gebraucht wird.<br />
( )<br />
1 0<br />
a1i) Es sei A = . Damit erhalten wir ẋ 1 = x 1 , ẋ 2 = x 2 <strong>und</strong> die Lösungen x 1 (t) =<br />
0 1<br />
e t x 1 (0), x 2 (t) = e t x 2 (0). Als Lösungskurven ergeben sich Geraden x 1 (t)/x 2 (t) = x 1 (0)/x 2 (0),<br />
d.h. x 1 = Cx 2 .<br />
Um die Lösungen graphisch zu veranschaulischen, können wir in jedem Punkt das Vektorfeld<br />
f(x) = x ∈ R 2 einzeichnen. Das Vektorfeld f(x)/‖f(x)‖ heißt Richtungsfeld. Jede Lösung<br />
x = x(t) hat im Punkt x ∈ R 2 den Vektor f(x) ∈ R 2 als Tangentialvektor ẋ(t).<br />
( )<br />
2 0<br />
a1ii) Es sei A = . Damit erhalten wir ẋ 1 = 2x 1 , ẋ 2 = x 2 <strong>und</strong> die Lösungen<br />
0 1<br />
x 1 (t) = e 2t x 1 (0), x 2 (t) = e t x 2 (0). Als Lösungskurven ergeben sich Parabeln x 1 (t)/(x 2 (t)) 2 =<br />
x 1 (0)/(x 2 (0)) 2 , d.h. x 1 = Cx 2 2. Das Phasenbild (Knoten) ist stabil unter kleinen Störungen, d.h.<br />
A = diag(1.9, 1.1) hat<br />
(<br />
ein vergleichbares<br />
)<br />
Phasenbild.<br />
1 0<br />
a1iii) Es sei A =<br />
. Damit erhalten wir ẋ 1 = x 1 , ẋ 2 = −x 2 <strong>und</strong> die Lösungen<br />
0 −1<br />
x 1 (t) = e t x 1 (0), x 2 (t) = e −t x 2 (0). Als Lösungskurven ergeben sich Hyperbeln x 1 (t)x 2 (t) =<br />
14
2<br />
1.5<br />
1<br />
0.5<br />
0<br />
-0.5<br />
-1<br />
-1.5<br />
-2<br />
-2 -1.5 -1 -0.5 0 0.5 1 1.5 2<br />
2<br />
1.5<br />
1<br />
0.5<br />
0<br />
-0.5<br />
-1<br />
-1.5<br />
-2<br />
-2 -1.5 -1 -0.5 0 0.5 1 1.5 2<br />
2<br />
1.5<br />
1<br />
0.5<br />
0<br />
-0.5<br />
-1<br />
-1.5<br />
-2<br />
-2 -1.5 -1 -0.5 0 0.5 1 1.5 2<br />
Abbildung 1: Richtungsfeld <strong>und</strong> Fluß in der Phasenebene zu a1i), <strong>und</strong> Fluß zu a1ii).<br />
x 1 (0)x 2 (0), d.h. x 1 = C/x 2 . Das Phasenbild (Sattel) ist stabil unter kleinen Störungen, d.h.<br />
A = diag(1.1, −0.9) hat ein vergleichbares Phasenbild.<br />
2<br />
1.5<br />
1<br />
0.5<br />
0<br />
-0.5<br />
-1<br />
-1.5<br />
-2<br />
-2 -1.5 -1 -0.5 0 0.5 1 1.5 2<br />
2<br />
1.5<br />
1<br />
0.5<br />
0<br />
-0.5<br />
-1<br />
-1.5<br />
-2<br />
-2 -1.5 -1 -0.5 0 0.5 1 1.5 2<br />
2<br />
1.5<br />
1<br />
0.5<br />
0<br />
-0.5<br />
-1<br />
-1.5<br />
-2<br />
-2 -1.5 -1 -0.5 0 0.5 1 1.5 2<br />
a2i) Es sei A =<br />
Abbildung 2: Fluß in der Phasenebene zu a1iii), zu a2i) <strong>und</strong> a2ii).<br />
(<br />
0 1<br />
−1 0<br />
)<br />
. Damit erhalten wir ẋ 1 = x 2 , ẋ 2 = −x 1 <strong>und</strong> für ˜x = x 1 + ix 2<br />
die Gleichung ˙˜x = −i˜x. Die Lösung ˜x(t) = e −it˜x(0) läßt die Kreise |˜x(t)| 2 = |˜x(0)| 2 , d.h.<br />
x 2 1 +x2 2 = C, invariant. Als Lösungskurven ergeben sich also Kreise. Das Phasenbild (Zentrum)<br />
ist nicht stabil unter<br />
(<br />
kleinen<br />
)<br />
Störungen. Im allgemeinen erhalten wir Fall a2ii)<br />
1 1<br />
a2ii) Es sei A =<br />
. Damit erhalten wir für ˜x = x 1 + ix 2 die Gleichung ˙˜x = (1 − i)˜x.<br />
−1 1<br />
Als Lösung ergibt sich ˜x(t) = e t e −it˜x(0). In Polarkoordinaten ˜x(t) = r(t)e iφ(t) mit r(t) ∈ R<br />
<strong>und</strong> φ(t) ∈ S 1 = R/(2πZ) ergeben sich ṙ = r <strong>und</strong> ˙φ = −1 als Gleichungen <strong>und</strong> r(t) = e t r(0)<br />
<strong>und</strong> φ(t) = (φ(0) + t)mod2π. Als Lösungskurven ergeben sich also Spiralen. Das Phasenbild<br />
(Wirbel) ist stabil unter kleinen Störungen.<br />
15
( )<br />
1 1<br />
b) Es sei A = . Damit erhalten wir ẋ 1 = x 1 + x 2 <strong>und</strong> x˙<br />
2 = x 2 . Für die zweite Gleichung<br />
ergibt sich x 2 (t) = e t x 2 (0). Die Variation der Konstanten Formel auf die erste Gleichung<br />
0 1<br />
angewendet, ergibt<br />
x 1 (t) = e t x 1 (0) +<br />
∫ t<br />
0<br />
e t−s e s u 2 (0)ds = e t x 1 (0) + e t tx 2 (0).<br />
Das Phasenbild ist nicht generisch, da das Auftreten eines Jordanblockes unwahrscheinlich ist.<br />
2<br />
1.5<br />
1<br />
0.5<br />
0<br />
-0.5<br />
-1<br />
-1.5<br />
-2<br />
-2 -1.5 -1 -0.5 0 0.5 1 1.5 2<br />
Abbildung 3: Fluß in der Phasenebene zu b).<br />
2.3 Strukturen<br />
2.3.1 Stabilität<br />
Ein Punkt x 0 ∈ R d heißt Fixpunkt (Gleichgewicht, singulärer Punkt, kritischer Punkt) der<br />
Gewöhnlichen Differentialgleichung (1), wenn für die rechte Seite f(x 0 , t) = 0 für alle t ∈ R.<br />
Dann ist x ≡ x 0 Lösung von (1).<br />
Definition 2.4 Ein Fixpunkt x 0 ∈ R d heißt stabil, falls für alle ɛ > 0 <strong>und</strong> t 0 ∈ R ein δ > 0<br />
existiert, so dass aus ‖x 1 − x 0 ‖ < δ für alle t ≥ t 0 die Schranke ‖x(t, t 0 , x 1 ) − x 0 ‖ < ɛ folgt.<br />
Ein nicht stabiler Fixpunkt heißt instabil.<br />
Ein stabiler Fixpunkt heißt asymptotisch stabil, falls zusätzlich lim t→∞ x(t, t 0 , x 1 ) = x 0 gilt.<br />
Die Idee der Stabilität ist: kleine Störungen führen zu kleinen Abweichungen; siehe Abb.4.<br />
Aus der expliziten Darstellungsformel für e At mittels der Jordanschen Normalform folgt unmittelbar<br />
für autonome Gleichungen.<br />
16
ε<br />
δ<br />
x=x(t)<br />
x 0<br />
x 1<br />
Abbildung 4: Stabilität eines Fixpunktes.<br />
Theorem 2.5 Der Fixpunkt x = 0 in ẋ = Ax ist<br />
a) asymptotisch stabil, falls alle Eigenwerte λ von A die Beziehung Reλ < 0 erfüllen.<br />
b) stabil, falls alle Eigenwerte λ die Beziehung Reλ ≤ 0 erfüllen <strong>und</strong> zu den Eigenwerten<br />
mit Reλ = 0 keine Jordanblöcke auftreten, d.h. diese Eigenwerte gleiche algebraische <strong>und</strong><br />
geometrische Vielfachheit besitzen.<br />
c) sonst instabil (, d.h. es gibt Eigenwerte mit Reλ = 0 <strong>und</strong> Jordanblock oder mindestens einen<br />
Eigenwert mit Reλ > 0)<br />
Siehe Abbildung 5.<br />
Im<br />
Im<br />
Im<br />
Re<br />
Re<br />
Re<br />
asymptotisch stabil<br />
stabil<br />
instabil<br />
Abbildung 5: Eigenwerte von A.<br />
In Kapitel 4 zeigen wir, dass ein Fixpunkt auch im nichtlinearen Fall stabil bzw. instabil ist,<br />
falls die Linearisierung um diesen Fixpunkt in den Fall a) oder c) fällt. Im Fall b) entscheiden<br />
die nichtlinearen Terme. In dieser Vorlesung konzentrieren wir uns auf die Fälle a) <strong>und</strong> c). Alle<br />
17
<strong>Systeme</strong> der klassischen Mechanik fallen in den Fall b) <strong>und</strong> werden in den Hamiltonschen <strong>Systeme</strong>n<br />
genauer untersucht.<br />
Eine andere Methode Stabilität nachzuweisen beruht auf sogenannten Lyapunovfunktionen. Eine<br />
Lyapunovfunktionen W : R d → R nimmt entlang von Lösungen ab.<br />
Beispiel 2.6 Es sei W (x) = x 2 1 + x 2 2 <strong>und</strong> ẋ 1 = −2x 1 , ẋ 2 = −x 2 . Dann gilt<br />
d<br />
dt W (x(t)) = ((∇W )(x(t)))T ẋ(t) = −4x 2 1 − 2x2 2 < 0,<br />
falls (x 1 , x 2 ) ≠ (0, 0). Da das Minimum in (x 1 , x 2 ) = (0, 0) liegt, konvergiert jede Lösung<br />
gegen (0, 0).<br />
Beispiel 2.7 Das Potential V : R d → R von Gradientensystemen ẋ = −∇V (x) ist eine Lyapunovfunktion.<br />
Um eine lineare Differentialgleichung zu erhalten, muß V = ∑ d<br />
i,j=1 b ijx i x j =<br />
x T Bx bilinear sein. Wir erhalten<br />
ẋ k = −∂ xk V (x) = − ∑ ij<br />
(δ ik b ij x j + x i b ij δ kj ) = − ∑ j<br />
(b kj + b jk )x j<br />
<strong>und</strong> somit ẋ = −(B + B T )x. Die Matrix (B + B T ) ist symmetrisch, womit kein Jordanblock<br />
möglich ist. Ist (B + B T ) positiv definit, so ist x = 0 stabil. Ist (B + B T ) strikt positiv definit,<br />
so ist x = 0 asymptotisch stabil.<br />
2.3.2 Invariante Mengen<br />
Wir betrachten im folgenden autonome <strong>Systeme</strong> ẋ = f(x).<br />
Definition 2.8 Eine Menge M ⊂ R d heißt (positiv, negativ) invariant unter dem Fluß der Differentialgleichung,<br />
falls für alle x 0 ∈ M folgt: x(t, x 0 ) ∈ M für alle t ∈ R (t > 0, t < 0).<br />
Definition 2.9 Eine Funktion F : R d → R heißt Integral von (1), falls F (x(t)) unabhängig<br />
von der Zeit entlang der Lösungen von (1), d.h. d F (x(t)) = 0.<br />
dt<br />
Offensichtlich ist {x ∈ R d | F (x) = const.} eine invariante Menge. Integrale sind hilfreich zum<br />
Verständnis von Lösungen. Sind (d−1) Integrale F j bekannt, so ist das Lösen der Gewöhnlichen<br />
Differentialgleichung (1) äquivalent zum Auflösen von (d − 1) algebraischen Gleichungen.<br />
Beispiel 2.10 Es sei F (x) = x 2 1 + x2 2 <strong>und</strong> ẋ 1 = −x 2 , ẋ 2 = x 1 . Dann gilt<br />
Damit ist ein F ein Integral.<br />
d<br />
dt F (x(t)) = ((∇F )(x(t))T ẋ(t) = −x 1 x 2 + x 2 x 1 = 0.<br />
18
Betrachte das autonome System ẋ = Ax. Die Eigenräume von A bilden unter dem Fluß e At<br />
invariante Unterräume. Wir fassen die verallgemeinerten Unterräume zu Reλ < 0 zum stabilen<br />
Unterraum E s , die verallgemeinerten Unterräume zu Reλ = 0 zum zentralen Unterraum E c<br />
<strong>und</strong> die verallgemeinerten Unterräume zu Reλ > 0 zum instabilen Unterraum E u zusammen.<br />
Diese invarianten Unterräume bleiben im nichtlinearen Fall als invariante Mannigfaltigkeiten<br />
erhalten. Der stabile Unterraum E s wird zur stabilen Mannigfaltigkeit W s , der instabile Unterraum<br />
E u wird zur instabilen Mannigfaltigkeit W u <strong>und</strong> der zentrale Unterraum E c wird zur<br />
zentralen bzw. Zentrums-Mannigfaltigkeit W c .<br />
Beispiel 2.11 Es sei A = diag(1, 0, −1). Dann ist<br />
E s = {x | x = λ(0, 0, 1) T , λ ∈ R}<br />
E c = {x | x = λ(0, 1, 0) T , λ ∈ R}<br />
E u = {x | x = λ(1, 0, 0) T , λ ∈ R}.<br />
Hamiltonsche <strong>Systeme</strong> bilden eine weitere wichtige Klasse von <strong>Differentialgleichungen</strong><br />
ẋ = J∇H(x)<br />
mit H : R 2 ˜d → R die Hamilton-Funktion <strong>und</strong> J = −J T<br />
Operator. Mechanische <strong>Systeme</strong> lassen sich so darstellen.<br />
∈ R 2 ˜d×2 ˜d ein schiefsymmetrischer<br />
Beispiel 2.12 Es sei q der Ort eines Teilchens. Nach Newton erhalten wir als Bewegungsgleichung<br />
¨q = −∇U(q) mit einem Potential U. Wir führen den Impuls p ein <strong>und</strong> schreiben dies als<br />
erstes Ordnungssystem<br />
˙q = p, ṗ = −∇U(q),<br />
bzw. als<br />
˙q = ∂ ∂p (p2 /2), ṗ = − ∂ ∂q U(q)<br />
Mit H = p 2 /2 + U(q) ergibt sich<br />
(<br />
dq<br />
dt<br />
dp<br />
dt<br />
)<br />
=<br />
(<br />
∂H<br />
∂p<br />
− ∂H<br />
∂q<br />
) (<br />
0 1<br />
=<br />
−1 0<br />
) (<br />
∂H<br />
∂q<br />
∂H<br />
∂p<br />
)<br />
Die Hamilton-Funktion H ist ein Integral, denn<br />
d<br />
dt H(x(t)) = ((∇H)(x(t)))T ẋ(t) = ((∇H)(x(t))) T J((∇H)(x(t)) = 0,<br />
da J ein schiefsymmetrischer Operator ist. Damit ist die Menge {x | H(x) = const.} invariant<br />
unter dem Fluß. Sie heißt Energiefläche. Die Theorie dieser <strong>Systeme</strong> ist Gegenstand von<br />
Spezialvorlesungen; siehe insbesondere Integrabilität, Stabilität, KAM-Theorie.<br />
19
2.3.3 Symmetrien<br />
Wir bezeichnen mit GL(d) die Gruppe aller invertierbaren linearen Abbildungen des R d in sich.<br />
Im folgenden sei Γ eine abgeschlossene Untergruppe von GL(d).<br />
Beispiel 2.13 Die orthogonalen Matrizen O(d) bestehen aus allen d×d-Matrizen mit A T A = I<br />
Ist zusätzlich det A = 1 so ist A ∈ SO(d), die Menge der speziellen orthogonalen Matrizen.<br />
Definition 2.14 Wir sagen, dass Γ durch die stetige Abbildung (die Darstellung)<br />
Γ × R d → R d , (γ, v) ↦→ γ · v<br />
auf den R d wirkt. Es gilt γ(v 1 + v 2 ) = γv 1 + γv 2 <strong>und</strong> (γ 1 γ 2 )v = γ 1 (γ 2 v).<br />
Eine Abbildung f : R d → R d kommutiert mit Γ bzw. heißt Γ-äquivariant, falls<br />
f(γx) = γf(x), für alle x ∈ R d , γ ∈ Γ.<br />
Eine Funktion g : R d → R heißt Γ-invariant, falls<br />
g(γx) = g(x), für alle x ∈ R d , γ ∈ Γ.<br />
Ist f Γ-äquivariant, so ist mit x = x(t) auch γx = γx(t) Lösung der Gewöhnlichen Differentialgleichung<br />
ẋ = f(x), denn<br />
d<br />
(γx) = γẋ = γf(x) = f(γx).<br />
dt<br />
Beispiel 2.15 ẋ 1 = x 1 , ẋ 2 = x 2 ist O(2)-äquivariant.<br />
Symmetrien können zu einer Dimensionsreduktion benützt werden. Symmetrien können aber<br />
auch zu Entartungen, wie mehrfache Eigenwerte, führen. Für viele Sätze, insbesonders in der<br />
Bifurkationstheorie, werden Nichtdegeneriertheitsbedingungen gefordert. Diese sind im symmetrischen<br />
Fall meist nicht erfüllt. Daher existieren häufig auch symmetrische Formulierungen<br />
([GS85, GSS88]).<br />
2.4 Lineare <strong>Systeme</strong> mit periodischen Koeffizienten<br />
Wir betrachten ẋ(t) = A(t)x(t) für t ∈ R mit<br />
d.h. A ist T -periodisch. Offensichtlich gilt:<br />
A(t) = A(t + T ), für ein festes T ∈ R,<br />
Lemma 2.16 Mit x(t, t 0 , x 0 ) ist auch x(t+nT, t 0 +nT, x 0 ) mit n ∈ N Lösung der T -periodischen<br />
Differentialgleichung.<br />
20
Dieses Lemma gilt allgemein für T -periodisches f, d.h. f(x, t) = f(x, t + T ).<br />
Der f<strong>und</strong>amentale Satz dieses Kapitels lautet<br />
Theorem 2.17 (Floquet) Jede F<strong>und</strong>amentalmatrix φ = φ(t) kann als Produkt zweier d × d-<br />
Matrizen<br />
φ(t) = P (t)e Bt<br />
geschrieben werden. Dabei gilt P (t) = P (t + T ) <strong>und</strong> B ist eine konstante d × d-Matrix.<br />
Beweis: Nach obigem Lemma ist mit φ(t) auch φ(t + T ) eine F<strong>und</strong>amentalmatrix. Damit existiert<br />
eine invertierbare d × d-Matrix C, so dass<br />
φ(t + T ) = φ(t)C.<br />
Eine invertierbare d × d-Matrix C kann immer als C = e BT mit B eine nicht eindeutige d × d-<br />
Matrix geschrieben werden. Als Beispiel betrachte C = diag(λ 1 , . . . , λ d ) mit λ j > 0. Dann<br />
ist der Logarithmus B = diag(ln λ 1 , . . . , ln λ d ). Der allgemeine Fall wird in den Übungen<br />
betrachtet. Beachte dazu −1 = e iπ <strong>und</strong> die Reihe für ln(1 + x) im Falle von Jordanblöcken.<br />
Setze P (t) = φ(t)e −Bt . Dann gilt<br />
P (t + T ) = φ(t + T )e −B(t+T )<br />
= φ(t)Ce −BT e −Bt<br />
= φ(t)e −Bt = P (t)<br />
Die Matrix C heißt Monodromiematrix. Die Eigenwerte von C heißen Floquetmultiplikatoren.<br />
Die Eigenwerte von B heißen Floquetexponenten. Letztere sind nicht eindeutig, da stets 2πi/T<br />
addiert werden kann. Die Floquetmultiplikatoren sind eindeutig, denn: Seien zwei F<strong>und</strong>amentalmatrizen<br />
φ = φ(t) <strong>und</strong> ψ = ψ(t) gegeben. Dann gilt ψ −1 (t)φ(t) = S ist unabhängig von der<br />
Zeit. Somit ist<br />
C φ = φ(t) −1 φ(t + T ) = S −1 ψ(t) −1 ψ(t + T )S = S −1 C ψ S.<br />
Damit sind die Matrizen C zu verschiedenen F<strong>und</strong>amentalmatrizen zueinander ähnlich.<br />
Die T -periodische Transformation x(t) = P (t)y(t) liefert<br />
<strong>und</strong> damit<br />
P (t)ẏ(t) + ˙ P (t)y(t) = ẋ(t) = A(t)x(t) = A(t)P (t)y(t)<br />
ẏ(t) = P (t) −1 (A(t)P (t) − ˙ P (t))y(t)<br />
= P (t) −1 (A(t)P (t) − ˙φ(t)e −Bt − φ(t)(−B)e −Bt )y(t)<br />
= P (t) −1 (A(t)P (t) − A(t)φ(t)e −Bt + φ(t)e −Bt B)y(t)<br />
= P (t) −1 (A(t)P (t) − A(t)P (t) + P (t)B)y(t) = By(t).<br />
21<br />
□
Um die Stabilität von x = 0 zu untersuchen, reicht es daher die Eigenwerte von B zu betrachten.<br />
Erfüllen zum Beispiel alle Eigenwerte λ von B die Beziehung Reλ < 0, so ist x = 0<br />
asymptotisch stabil. Für die Behandlung nichtlinearer Gleichungen ist die Betrachtung von C<br />
viel instruktiver.<br />
Nach obigem Lemma gilt für n ∈ N <strong>und</strong> τ ∈ [0, T ), dass<br />
x(t, 0, x 0 ) = x(nT + τ, 0, x 0 ) = x(nT + τ, nT, x(nT, 0, x 0 ))<br />
= x(nT + τ, nT, x(nT, (n − 1)T, x((n − 1)T, 0, x 0 ))<br />
= x(τ, 0, x(T, 0, x(T, 0, . . . , x(T, 0, x 0 )) . . .)))<br />
= φ τ ◦ φ T ◦ . . . ◦ φ T (x 0 ),<br />
wobei φ t x 0 = x(t, 0, x 0 ). Da τ ∈ [0, T ) ist, ist für die Langzeitdynamik allein die Iteration der<br />
Zeit T -Abbildung φ T von Interesse, d.h. im linearen Fall die Abbildung<br />
S(T, 0) = (P (T )e BT )(P (0)e B0 ) −1 = C.<br />
Theorem 2.18 In einem diskreten dynamischen System x n+1 = Cx n gilt:<br />
a) Erfüllen alle Eigenwerte µ von C die Bedingung |µ| < 1, so ist x = 0 asymptotisch stabil,<br />
d.h. lim n→∞ x(n, x 0 ) = 0.<br />
b) Existiert mindestens ein Eigenwert µ von C mit |µ| > 1, so ist x = 0 instabil.<br />
Im<br />
1<br />
Im<br />
1<br />
Re<br />
Re<br />
asymptotisch stabil<br />
instabil<br />
Abbildung 6: Die Eigenwerte von C.<br />
Linearisierungen um periodische Lösungen in nichtlinearen autonomen <strong>Differentialgleichungen</strong><br />
enthalten immer einen Floquetmultiplikator 1. Deshalb wird die sogenannte Poincaré-<br />
Abbildung betrachtet werden.<br />
Wie oben können für diskrete dynamische <strong>Systeme</strong> invariante Mengen definiert werden.<br />
Beispiel 2.19 Betrachte x 1 (n + 1) = 2x 1 (n), x 2 (n + 1) = (1/2)x 2 (n). Die Menge E s = {x ∈<br />
R 2 | x 1 = 0} ist der stabile Unteraum. Die Menge E u = {x ∈ R 2 | x 2 = 0} ist der instabile<br />
22
Unteraum. Wie bei <strong>Differentialgleichungen</strong> bleiben diese im nichtlinearen Fall erhalten <strong>und</strong><br />
werden zu stabilen <strong>und</strong> instabilen Mannigfaltigkeiten. Siehe Abbildung 7.<br />
2<br />
1.5<br />
1<br />
0.5<br />
0<br />
-0.5<br />
-1<br />
-1.5<br />
-2<br />
-2 -1.5 -1 -0.5 0 0.5 1 1.5 2<br />
Abbildung 7: Das Phasenbild der Iteration.<br />
Beispiel 2.20 Betrachte die 1-periodische Differentialgleichung ẋ = (cos 2 2πt)x für x(t) ∈ R.<br />
Als Lösung zur Anfangsbedingung x(0) = x 0 ergibt sich<br />
x(t, 0, x 0 ) = x 0 exp( t 2<br />
+<br />
sin 4πt<br />
8π )<br />
<strong>und</strong> somit<br />
sin 4πt<br />
P (t) = exp(<br />
8π ) <strong>und</strong> eBt = exp( t 2 ).<br />
Wir haben einen Floquetmultiplikator e 1/2 <strong>und</strong> den Floquetexponenten 1/2. Die Zeit 1-Abbildung<br />
ist durch φ(x 0 ) = e 1/2 x 0 gegeben.<br />
Das folgende Beispiel (Markus <strong>und</strong> Yamabe) zeigt, dass im periodischen Fall die Eigenwerte<br />
einer Matrix keine Aussagekraft über die Stabilität haben.<br />
Beispiel 2.21 Betrachte ẋ = A(t)x mit<br />
( )<br />
−1 +<br />
3<br />
2<br />
A(t) =<br />
cos2 t 1 − 3 sin t cos t<br />
2<br />
−1 − 3 sin t cos t −1 + .<br />
3<br />
2 2 sin2 t<br />
Als charakteristisches Polynom ergibt sich<br />
(−1 + 3 2 cos2 t − λ)(−1 + 3 2 sin2 t − λ) − (1 − 3 sin t cos t)(−1 − 3 sin t cos t)<br />
2 2<br />
= λ 2 + 2λ − 3 2 (cos2 t + sin 2 t)λ + 1 − 3 2 (cos2 t + sin 2 t) + 9 4 cos2 t sin 2 t + 1 − 9 4 cos2 t sin 2 t<br />
= λ 2 + 1 2 λ + 1 2 ,<br />
d.h. die Eigenwerte sind unabhängig von t <strong>und</strong> lauten<br />
λ 1,2 = (−1 ± i √ 7)/4.<br />
23
Dies führt zu der Vermutung, dass x = 0 stabil ist. Es existiert jedoch die Lösung<br />
( )<br />
− cos t<br />
sin t<br />
e t/2 ,<br />
welche für t → ∞ unbeschränkt wird. Tatsächlich sind die Floquetexponenten durch λ 1 = 1 2<br />
<strong>und</strong> λ 2 = −1 gegeben.<br />
24
3 Nichtlineare <strong>Systeme</strong><br />
Wir betrachten für allgemeine nichtlineare <strong>Systeme</strong> (1) neben der lokalen Existenz <strong>und</strong> Eindeutigkeit<br />
von Lösungen auch die Frage nach der globalen Existenz. Anschließend geben wir<br />
numerische Verfahren zu deren Untersuchung an <strong>und</strong> analysieren deren Güte.<br />
3.1 Existenz <strong>und</strong> Eindeutigkeit<br />
Wir beweisen zunächst die lokale Existenz <strong>und</strong> Eindeutigkeit der Lösungen unter Verwendung<br />
des Banachschen Fixpunktsatzes.<br />
Theorem 3.1 Sei (M, d) ein vollständiger metrischer Raum <strong>und</strong> F : M → M eine Kontraktion,<br />
d.h. es gibt ein κ ∈ (0, 1), so dass d(F (x), F (y)) ≤ κd(x, y) für alle x, y ∈ M. Dann<br />
besitzt F einen eindeutigen Fixpunkt x ∗ , d.h. x ∗ = F (x ∗ ).<br />
Beweis: Wir zeigen zunächst die Eindeutigkeit. Angenommen es existieren zwei verschiedene<br />
Fixpunkte x ∗ <strong>und</strong> y ∗ . Dann gilt<br />
d(x ∗ , y ∗ ) = d(F (x ∗ ), F (y ∗ )) ≤ κd(x ∗ , y ∗ ).<br />
Da κ ∈ (0, 1), folgt d(x ∗ , y ∗ ) = 0 <strong>und</strong> somit x ∗ = y ∗ im Widerspruch zur Annahme.<br />
Wir definieren die Folge x n+1 = F (x n ) mit x 0 ∈ M beliebig, aber fest. Dann gilt für m ≥ n<br />
m−1<br />
∑<br />
d(x m , x n ) ≤ d(x j+1 , x j ) ≤<br />
j=n<br />
m−1<br />
∑<br />
j=n<br />
κ j d(x 1 , x 0 ) ≤<br />
d.h. für alle ɛ > 0 gibt es ein N > 0, so dass für alle n, m > N:<br />
d(x m , x n ) ≤<br />
κN<br />
1 − κ d(x 1, x 0 ) ≤ ɛ,<br />
κn<br />
1 − κ d(x 1, x 0 ),<br />
d.h. (x n ) n∈N ist eine Cauchy-Folge. Da M vollständig, existiert ein x ∗ ∈ M, so dass x ∗ =<br />
lim n→∞ x n . x ∗ ist ein Fixpunkt, da wegen der Stetigkeit von F<br />
F (x ∗ ) = F ( lim<br />
n→∞<br />
x n ) = lim<br />
n→∞<br />
F (x n ) = lim<br />
n→∞<br />
x n+1 = x ∗ .<br />
□<br />
Theorem 3.2 Betrachte das Anfangswertproblem<br />
ẋ = f(x, t), x(t 0 ) = x 0<br />
für x ∈ D = {x ∈ R d | ‖x − x 0 ‖ ≤ d 0 } <strong>und</strong> t ∈ [t 0 − a, t 0 + a] mit a, d 0 > 0. Die Funktion f<br />
sei stetig in t <strong>und</strong> Lipschitz-stetig in x mit Lipschitz-Konstante L in G = D × [t 0 − a, t 0 + a].<br />
Dann besitzt das Anfangswertproblem eine eindeutige Lösung x ∈ C 1 ([t 0 −δ, t 0 +δ], R d ), wobei<br />
δ = min(a, d 0 /M, 1/(2L)) mit M = sup (x,t)∈G ‖f(x, t)‖.<br />
25
Beweis: Wir wenden den Banachschen Fixpunktsatz auf die Abbildung F : M → M definiert<br />
durch<br />
im vollständigen metrischen Raum<br />
an.<br />
F (x)(t) = x 0 +<br />
∫ t<br />
M = {x ∈ C([t 0 − δ, t 0 + δ], R d ) | d(x, x 0 ) =<br />
t 0<br />
f(x(s), s)ds<br />
sup ‖x(t) − x 0 ‖ ≤ d 0 }<br />
t∈[t 0 −δ,t 0 +δ]<br />
i) Zunächst bildet F den Raum M in sich ab, denn: Offensichtlich bildet F den Raum C([t 0 −<br />
δ, t 0 + δ], R d ) in sich ab, <strong>und</strong><br />
∫ t<br />
d(F (x), x 0 ) = sup ‖ f(x(s), s)ds‖ ≤ δM ≤ d 0 .<br />
t∈[t 0 −δ,t 0 +δ] t 0<br />
ii) F ist eine Kontraktion, da<br />
d(F (x), F (y)) = sup ‖<br />
t∈[t 0 −δ,t 0 +δ]<br />
≤<br />
sup |<br />
t∈[t 0 −δ,t 0 +δ]<br />
∫ t<br />
∫ t<br />
t 0<br />
f(x(s), s) − f(y(s), s)ds‖<br />
t 0<br />
‖f(x(s), s) − f(y(s), s)‖ds|<br />
∫ t<br />
≤ sup |<br />
t∈[t 0 −δ,t 0 +δ]<br />
L‖x(s) − y(s)‖ds|<br />
t 0<br />
≤ Lδ sup ‖x(s) − y(s)‖<br />
t∈[t 0 −δ,t 0 +δ]<br />
= Lδd(x, y) ≤ 1 d(x, y).<br />
2<br />
Damit sind alle Voraussetzungen erfüllt <strong>und</strong> folglich besitzt F einen eindeutigen Fixpunkt x ∗ ∈<br />
M. Ist x ∗ ∈ M, so gilt offensichtlich F (x ∗ ) ∈ C 1 ([t 0 − δ, t 0 + δ], R d ), womit x ∗ = F (x ∗ )<br />
ebenfalls einmal differenzierbar ist. Damit können wir die Beziehung x ∗ = F (x ∗ ) einmal nach<br />
der Zeit differenzieren <strong>und</strong> erhalten, dass x ∗ die Differentialgleichung löst.<br />
□<br />
Korollar 3.3 Ist f in einer Umgebung eines Punktes (x 0 , t 0 ) ∈ R d ×R stetig in t <strong>und</strong> Lipschitzstetig<br />
in x, so existiert ein δ > 0 <strong>und</strong> eine eindeutige Lösung x ∈ C 1 ([t 0 − δ, t 0 + δ], R d ) mit<br />
x| t=t0 = x 0 .<br />
Ist f in einer Umgebung eines Punktes (x(t 0 + δ, t 0 , x 0 ), t 0 + δ) ∈ R d × R stetig in t <strong>und</strong><br />
Lipschitz-stetig in x, so können wir den obigen Existenz- <strong>und</strong> Eindeutigkeitssatz erneut anwenden.<br />
Damit läßt sich eine Lösung, solange fortsetzen bis die Voraussetzungen des Existenz- <strong>und</strong><br />
Eindeutigkeitssatzes nicht mehr erfüllt sind.<br />
Korollar 3.4 Ist f ∈ C 1 (R d , R d ), so können die Lösungen der autonomen Differentialgleichung<br />
ẋ = f(x) in jedem Punkt des Phasenraumes R d fortgesetzt werden. Eine Lösung kann<br />
26
nur aufhören zu existieren, falls sie in endlicher Zeit unbeschränkt wird. Existiert eine Lösung<br />
für alle t ∈ I mit I ein Intervall, so heißt I das maximale Existenzintervall, welches unter<br />
diesen Voraussetzungen an f stets offen ist.<br />
Beispiel 3.5 Es gibt keine stetige Funktion, welche ẋ = t −2 , x(0) = 1 erfüllt.<br />
Beispiel 3.6 Betrachte das Anfangswertproblem<br />
ẋ = x 2 , x(0) = a > 0.<br />
Die eindeutige Lösung x(t) = a/(1 − at) existiert für t ∈ [0, a −1 ), d.h. die Lösung explodiert<br />
(wird unbeschränkt) in endlicher Zeit.<br />
Beispiel 3.7 Betrachte das Anfangswertproblem (α ∈ (0, 1))<br />
ẋ = |x| α , x(0) = 0.<br />
Neben der Lösung x ≡ 0 existieren noch unendlich viele weitere, nämlich für jedes τ > 0<br />
{<br />
0 für t ∈ [0, τ]<br />
x(t) =<br />
p −p (t − τ) p für t > τ,<br />
wobei p = (1 − α) −1 . Wir bemerken explizit, dass x = x(t) für t = τ stetig differenzierbar ist<br />
<strong>und</strong> damit tatsächlich eine Lösung im obigen Sinne darstellt.<br />
Wie wir gesehen haben, reicht es für zeitunabhängiges differenzierbares f : R d → R d die Größe<br />
der Lösungen gewöhnlicher <strong>Differentialgleichungen</strong> zu kontrollieren, um auf globale Existenz<br />
der Lösungen schließen zu können. Dazu <strong>und</strong> zur Anschätzung von Näherungsfehlern beweisen<br />
wir die Gronwallsche Ungleichung.<br />
Lemma 3.8 Es gelte für t ∈ (t 0 , t 0 +a) mit a > 0 <strong>und</strong> φ <strong>und</strong> ψ nichtnegative stetige Funktionen<br />
die Ungleichung<br />
φ(t) ≤<br />
∫ t<br />
Dann folgt für t ∈ (t 0 , t 0 + a) die Abschätzung<br />
Beweis: Nach Voraussetzung ist<br />
t 0<br />
ψ(s)φ(s)ds + δ.<br />
R t<br />
t<br />
φ(t) ≤ δe<br />
ψ(s)ds 0 .<br />
φ(t)<br />
∫ t<br />
t 0<br />
ψ(s)φ(s)ds + δ ≤ 1.<br />
Nach Multiplikation beider Seiten mit ψ(t) <strong>und</strong> Integration ergibt sich<br />
∫ t<br />
∫ τ<br />
t 0<br />
∫<br />
ψ(τ)φ(τ)<br />
t<br />
t 0<br />
ψ(s)φ(s)ds + δ dτ ≤<br />
27<br />
t 0<br />
ψ(τ)dτ
<strong>und</strong> daraus<br />
<strong>und</strong><br />
∫ t<br />
∫ t<br />
ln( ψ(s)φ(s)ds + δ) − ln δ ≤<br />
t 0<br />
ψ(τ)dτ<br />
t 0<br />
∫ t<br />
t 0<br />
ψ(s)φ(s)ds + δ ≤ δ exp(<br />
∫ t<br />
t 0<br />
ψ(τ)dτ).<br />
Nach Voraussetzung ist φ(t) kleiner als der Ausdruck auf der linken Seite.<br />
□<br />
Beispiel 3.9 Eine Funktion f : R d × R → R d heißt linear beschränkt, wenn es Konstanten C 1<br />
<strong>und</strong> C 2 gibt, so dass für alle (x, t) ∈ R d × R die Abschätzung ‖f(x, t)‖ ≤ C 1 + C 2 ‖x‖ gilt,<br />
Ist f ∈ C 1 (R d × R, R d ) linear beschränkt, so existieren die Lösungen von (1) für alle t ∈ R.<br />
Zunächst folgt durch Aufintegrieren von (1)<br />
Für φ(t) = ‖x(t)‖ + C 1<br />
C 2<br />
‖x(t)‖ ≤ ‖x 0 ‖ +<br />
ergibt sich<br />
≤ ‖x 0 ‖ +<br />
∫ t<br />
0<br />
∫ t<br />
≤ ‖x 0 ‖ + C 1 t +<br />
φ(t) ≤ C 2<br />
∫ t<br />
0<br />
0<br />
‖f(x(s), s)‖ds<br />
C 1 + C 2 ‖x(s)‖ds<br />
∫ t<br />
0<br />
C 2 ‖x(s)‖ds.<br />
φ(s)ds + C 1<br />
C 2<br />
+ ‖x 0 ‖<br />
<strong>und</strong> somit nach der Gronwallschen Ungleichung<br />
( )<br />
C1<br />
φ(t) ≤ + ‖x 0 ‖ e C2t .<br />
C 2<br />
Eine unmittelbare Konsequenz ist, dass die Lösungen der linearen <strong>Differentialgleichungen</strong> ẋ =<br />
A(t)x + g(t) wie in Kapitel 2 behauptet für alle t ∈ R existieren, falls A <strong>und</strong> g für alle t ∈ R<br />
stetig sind.<br />
Eine andere Anwendung der Gronwallschen Ungleichung ist die stetige Abhängigkeit von den<br />
Anfangsbedingungen. Sei f : R d → R d Lipschitz-stetig mit Konstante L. So gilt<br />
‖x(t, x 0 ) − x(t, y 0 )‖ ≤ ‖x 0 − y 0 ‖ +<br />
≤<br />
∫ t<br />
‖x 0 − y 0 ‖ + L<br />
0<br />
∫ t<br />
<strong>und</strong> somit nach Anwendung des Gronwallschen Lemmas<br />
‖x(t, x 0 ) − x(t, y 0 )‖ ≤ ‖x 0 − y 0 ‖e Lt .<br />
28<br />
‖f(x(s, x 0 ) − f(x(s, y 0 ))‖ds<br />
0<br />
‖x(s, x 0 ) − x(s, y 0 )‖ds
Ist f differenzierbar, so hängt die Lösung x(t, t 0 , x 0 ) differenzierbar von der Anfangsbedingung<br />
x 0 ab. Siehe [KK74].<br />
Eine andere Methode die globale Existenz von Lösungen nachzuweisen, sind sogenannte Energieabschätzungen.<br />
Beispiel 3.10 Betrachte<br />
ẋ = x − x 3 , x(0) = x 0 .<br />
Wir haben drei Fixpunkte, den instabilen x = 0 <strong>und</strong> die stabilen x = ±1. Vom Phasenbild<br />
ist daher klar, dass die Lösungen für alle t ≥ 0 existieren. Dies kann auch wie folgt bewiesen<br />
werden. Betrachte die Differentialgleichung für die skalare Größe r = x 2 ≥ 0:<br />
ṙ = d dt (x2 ) = 2xẋ = 2x 2 − 2x 4 ≤ 2 − 2x 2 = 2 − 2r.<br />
Aus dem Phasenbild für ṙ = 2 − 2r folgt sofort, dass alle Lösungen für t ≥ 0 beschränkt<br />
bleiben. Es gilt sogar lim sup t→∞ r(t) ≤ 1. Damit bleibt auch x beschränkt <strong>und</strong> es gilt, wie<br />
bereits bekannt lim sup t→∞ x 2 (t) ≤ 1.<br />
Beispiel 3.11 Wir verallgemeinern das letzte Beispiel <strong>und</strong> betrachten jetzt allgemein<br />
ẋ = f(x), x(0) = x 0 .<br />
Die Differentialgleichung für die skalare Größe r(t) = x T (t)x(t) lautet<br />
ṙ = x T ẋ + ẋ T x = 2x T f(x).<br />
Existieren nun Konstanten C 1 > 0 <strong>und</strong> C 2 > 0, so dass für alle x ∈ R d die Ungleichung<br />
gilt, so erfüllt r die Differentialungleichung<br />
x T f(x) ≤ C 1 − C 2 x T x<br />
ṙ ≤ C 1 − C 2 r.<br />
Damit bleibt r(t) <strong>und</strong> damit auch x(t) für alle t ≥ 0 beschränkt <strong>und</strong> es gilt<br />
lim sup<br />
t→∞<br />
r(t) = lim sup x T (t)x(t) ≤ C 1 /C 2 .<br />
t→∞<br />
Es kann sich als sinnvoll erweisen allgemein r(t) = x T (t)B(t)x(t) mit B(t) eine in t ≥ 0<br />
gleichmäßig positiv definite d × d-Matrix zu betrachten <strong>und</strong> eventuell höhere Ordnungen in x<br />
zuzulassen.<br />
29
3.2 Numerik<br />
Nur in den seltensten Fällen ist es möglich die Lösungen gewöhnlicher <strong>Differentialgleichungen</strong><br />
explizit in bekannten Funktionen auszudrücken. Vielfach sind selbst diese Ausdrücke so kompliziert,<br />
dass es mehr Sinn macht auch diese Lösungen numerisch anzunähern. Die folgenden<br />
numerischen Verfahren erlauben es die Lösung x = x(t, t 0 , x 0 ) zu<br />
ẋ = f(x, t), x| t=t0 = x 0<br />
auf einem vorgebenen Intervall [t 0 , t e ] zu approximieren. Um über das gesamte Lösungsverhalten<br />
der Differentialgleichung etwas zu erfahren, können diese Näherungen nützlich sein, einen<br />
ersten Eindruck zu gewinnen. Sie müssen dann durch weitere Verfahren <strong>und</strong> Überlegungen<br />
ergänzt werden.<br />
Das Euler-Verfahren:<br />
Das einfachste Verfahren die Lösung x = x(t) auf einem Intervall [t 0 , t e ] zu approximieren, ist<br />
das Euler-Verfahren. Die durch den folgenden Algorithmus gewonnene Näherungslösung werde<br />
mit y = y(t) bezeichnet.<br />
Algorithmus: Das vorgegebene Intervall werde in Teilintervalle [t 0 , t e ] = ⋃ N<br />
n=1 [t n−1, t n ] mit<br />
t n = t 0 + nh, der Schrittweite h = (t e − t 0 )/N, N ∈ N zerlegt. Dann definieren wir y(t) zu<br />
den Zeitpunkten t = t n durch<br />
y(t n+1 ) = y(t n ) + hf(t n , y(t n )), y(t 0 ) = x 0 .<br />
Zwischen den Punkten y(t n ) <strong>und</strong> y(t n+1 ) wird y = y(t) durch lineare Interpolation definiert.<br />
Der Einfachheit halber sei<br />
sup ‖f(x, t)‖ ≤ M < ∞.<br />
(x,t)∈R d ×[t 0 ,t e]<br />
Damit gilt für die Näherungslösung y = y(t) die Abschätzung<br />
sup ‖y(t)‖ ≤ ‖x 0 ‖ + M|t e − t 0 | =: C y ,<br />
t∈[t 0 ,t e]<br />
d.h. die durch das Eulerverfahren gewonnene Näherungslösung y = y(t) bleibt beschänkt unabhängig<br />
von der Größe von h.<br />
Es gilt nun folgender Satz.<br />
Theorem 3.12 Es sei f : R d × [t 0 , t e ] → R d Lipschitz-stetig mit Konstante L in x <strong>und</strong> t. Dann<br />
gibt es ein h 0 > 0 <strong>und</strong> ein C > 0, so dass für alle h ∈ (0, h 0 ] die Abschätzung<br />
sup ‖x(t) − y(t)‖ ≤ Ch<br />
t∈[t 0 ,t e]<br />
gilt, d.h. die Näherungslösung y = y(t) konvergiert gegen die exakte Lösung x = x(t) für<br />
h → 0.<br />
30
Beweis: Die Differenz r(t) = x(t) − y(t) erfüllt die Gleichung<br />
Für t = t m gilt<br />
r(t) = x(t) − y(t) = x 0 +<br />
∫ t<br />
∫ t<br />
t 0<br />
f(y(s) + r(s), s)ds − y(t).<br />
s 1 = x 0 + f(y(s) + r(s), s)ds − y(t)<br />
t 0<br />
m−1<br />
∑<br />
∫ tn+1<br />
= x 0 + f(y(s) + r(s), s)ds − y(t 0 ) − (<br />
t n<br />
n=0<br />
m−1<br />
∑<br />
= x 0 − y(t 0 ) + (<br />
n=0<br />
∫ tn+1<br />
Nach Verwendung des Euler-Algorithmus ergibt sich<br />
<strong>und</strong> somit<br />
‖s 1 ‖<br />
≤<br />
≤<br />
≤<br />
≤<br />
≤<br />
≤<br />
m−1<br />
∑<br />
s 1 =<br />
=<br />
∫ tn+1<br />
n=0 t n<br />
m−1 ∫ tn+1<br />
∑<br />
n=0<br />
m−1<br />
∑<br />
t n<br />
n=0 t n<br />
m−1 ∫ tn+1<br />
∑<br />
∫ tn+1<br />
n=0 t n<br />
m−1 ∫ tn+1<br />
∑<br />
n=0<br />
∫ t<br />
m−1<br />
∑<br />
(<br />
∫ tn+1<br />
n=0 t n<br />
m−1 ∫ tn+1<br />
∑<br />
n=0<br />
t n<br />
m−1<br />
∑<br />
n=0<br />
y(t n+1 ) − y(t n ))<br />
t n<br />
f(y(s) + r(s), s)ds − (y(t n+1 ) − y(t n )))<br />
f(y(s) + r(s), s)ds − f(y(t n ), t n )h)<br />
(f(y(s) + r(s), s) − f(y(t n ), t n ))ds<br />
‖f(y(s) + r(s), s) − f(y(t n ), t n )‖ds<br />
‖f(y(s) + r(s), s) − f(y(s), s)‖ + ‖f(y(s), s) − f(y(t n ), s)‖<br />
+‖f(y(t n ), s) − f(y(t n ), t n )‖ds<br />
L‖r(s)‖ + L‖y(s) − y(t n )‖ + L|s − t n |ds<br />
L‖r(s)‖ + L‖f(y(t n ), t n )(s − t n )‖ + L|s − t n |ds<br />
t n<br />
L‖r(s)‖ds +<br />
m−1<br />
∑<br />
n=0<br />
t 0<br />
L‖r(s)‖ds + h −1 L(M + 1)h 2 /2<br />
≤ L(M + 1)h/2 +<br />
∫ t<br />
t 0<br />
L‖r(s)‖ds.<br />
L(M + 1)(s − t n ) 2 | t n+1<br />
t n<br />
/2<br />
Da diese Abschätzung auch für t ∈ [t m , t m+1 ] gilt, liefert die Anwendung des Gronwallschen<br />
Lemmas<br />
‖r(t)‖ ≤ 1 2 L(M + 1)heL(t−t 0)<br />
(9)<br />
31
<strong>und</strong> somit die Behauptung.<br />
□<br />
Bemerkung 3.13 Störungen der Anfangsbedingungen können in der obigen Abschätzung mitbehandelt<br />
werden. Es ergibt sich dann<br />
‖r(t)‖ ≤ ((‖x 0 − y(t 0 )‖) + 1 2 L(M + 1)h)eL(t−t 0) .<br />
Definition 3.14 Eine Funktion f (das obige Verfahren) heißt konvergent von der Ordnung<br />
O(h m ) für h → 0, falls positive Konstanten C <strong>und</strong> h 0 existieren, so dass für alle h ∈ (0, h 0 ]<br />
die Abschätzung ‖f(h)‖/‖h m ‖ ≤ C gilt. Eine Funktion f heißt konvergent von der Ordnung<br />
o(h m ) für h → 0, falls lim h→0<br />
‖f(h)‖<br />
‖h m ‖ = 0.<br />
Die gewonnene Abschätzung ist eher von theoretischem Interesse wie das folgende Beispiel<br />
zeigt.<br />
Beispiel 3.15 Betrachte ẋ = −100x mit x(0) = 1 für t ∈ [0, 1]. Die Lösung x(t) = e −100t wird<br />
durch das dazugehörige Eulerverfahren approximiert. Es lautet y(t n ) = y(t n−1 )−100hy(t n−1 ) =<br />
(1 − 100h)y(t n−1 ) <strong>und</strong> so ergibt sich y(t n ) = (1 − 100h) n . Der Fehler x(nh) − y(nh) =<br />
e −100nh − (1 − 100h) n ist sehr klein, auch für nicht so kleines h. Die obige Abschätzung (9)<br />
liefert mit M = sup x∈[0,1] |f(x)| = 100, dass<br />
‖r(t)‖ ≤ 1 2 100(100 + 1)he100 ∼ 1.35 × 10 47 h.<br />
Soll der Fehler tatsächlich kontrolliert werden, muß parallel zum Berechnen der Lösung die<br />
Gleichung für den Fehler integriert werden.<br />
Wir untersuchen die Struktur der obigen Abschätzung genauer. Unabhängig vom verwendeten<br />
Näherungsverfahren ergibt sich stets<br />
m−1<br />
∑<br />
‖r(t)‖ ≤ ‖ (<br />
≤<br />
∫ tn+1<br />
n=0 t n<br />
m−1 ∫ tn+1<br />
∑<br />
n=0 t n<br />
m−1<br />
∑<br />
∫ tn+1<br />
+‖ (<br />
n=0 t n<br />
f(y(s) + r(s), s)ds − (y(t n+1 ) − y(t n ))‖<br />
‖f(y(s) + r(s), s) − f(y(s), s)‖ds<br />
f(y(s), s)ds − (y(t n+1 ) − y(t n )))‖.<br />
Ist die Näherungslösung y = y(t) auf [t 0 , t e ] beschänkt, so läßt sich der erste Ausdruck unabhängig<br />
von h wie oben durch ∫ t<br />
t 0<br />
L‖r(s)‖ds mit einer Konstante L abschätzen. Der zweite<br />
Ausdruck<br />
m−1<br />
∑<br />
∫ tn+1<br />
Res(y) = ( f(y(s), s)ds − (y(t n+1 ) − y(t n )))<br />
t n<br />
n=0<br />
wird als Residuum, bzw. als formaler Fehler bezeichnet. Allgemein gilt<br />
32
Theorem 3.16 Sei f : R d × [t 0 , t e ] → R d Lipschitz-stetig mit Konstante L in x <strong>und</strong> t. Es sei<br />
y = y(t) eine Näherungslösung mit y(t 0 ) = x 0 . Es gebe eine Konstante C y <strong>und</strong> ein m ∈ N so<br />
dass für alle h ∈ [0, 1] gilt:<br />
sup ‖Res(y)(t)‖ ≤ C y h m .<br />
t∈[t 0 ,t e]<br />
Dann gibt es ein h 0 > 0 <strong>und</strong> ein C > 0, so dass für alle h ∈ (0, h 0 ] die Abschätzung<br />
sup ‖x(t) − y(t)‖ ≤ Ch m<br />
t∈[t 0 ,t e]<br />
gilt, d.h. die Näherungslösung y = y(t) konvergiert gegen die exakte Lösung x = x(t) für<br />
h → 0 mit einer Rate O(h m ).<br />
Beweis: Unter diesen Voraussetzungen erfüllt die Differenz r(t) = x(t)−y(t) die Ungleichung<br />
‖r(t)‖ ≤<br />
∫ t<br />
Die Anwendung des Gronwallschen Lemmas liefert<br />
t 0<br />
L‖r(s)‖ds + C y h m<br />
‖r(t)‖ ≤ C y h m e L(t−t 0)<br />
(10)<br />
<strong>und</strong> somit die Behauptung.<br />
Zusammenfassung: Bleiben die Lösungen y = y(t) eines Näherungsverfahrens unabhängig<br />
von der Schrittweite beschränkt, <strong>und</strong> ist der formale Fehler von der Ordnung O(h m ), (was<br />
ebenfalls die Beschränktheit von y = y(t) voraussetzt) so wird die exakte Lösung x = x(t)<br />
durch ihre Näherung y = y(t) bis auf einen Fehler der gleichen Ordnung O(h m ) approximiert.<br />
Beispiel 3.17 Es kann sinnvoll sein das verwendete Verfahren der Struktur des Problems anzupassen.<br />
Betrachte die lineare Differentialgleichung x˙<br />
1 = x 2 <strong>und</strong> x˙<br />
2 = −x 1 . In der Phasenebene<br />
sind die Lösungen durch Kreise gegeben. Das Eulerverfahren berechnet allerdings<br />
nach außen laufende Spiralen. Denn betrachte den Kreis mit Radius 1. Ein Eulerschritt von<br />
(x − 1, x 2 ) = (1, 0) startend ergibt (1, 0) + (0, −h) = (1, −h), was außerhalb des Kreises mit<br />
Radius 1 liegt. Sinnvoller erweist sich hier die Trapezregel<br />
y(t n+1 ) = y(t n ) + 1 2 h(f(y(t n+1), t n+1 ) + f(y(t n ), t n )),<br />
welche die Hamiltonsche Struktur des Problems erhält. Hier ergibt sich das implizite Schema<br />
y 1 (t n+1 ) = y 1 (t n ) + 1 2 h(y 2(t n+1 ) + y 2 (t n )), y 2 (t n+1 ) = y 2 (t n ) − 1 2 h(y 1(t n+1 ) + y 1 (t n )).<br />
Für das obige Beispiel ergibt sich als Bildpunkt<br />
y 1 = 1 + 1 2 hy 2, y 2 = − 1 2 h(y 1 + 1).<br />
□<br />
33
<strong>und</strong> somit y 1 = 1 + 1 2 h(− 1 2 h(y 1 + 1)), was über y 1 = 1 − 1 4 h2 y 1 − 1 4 h2 die Werte<br />
y 1 = (1 − 1 4 h2 )/(1 + 1 4 h2 ) <strong>und</strong> y 2 = −h/(1 + 1 4 h2 )<br />
ergibt. Damit liegt (y 1 , y 2 ) ebenfalls auf dem Kreis mit Radius 1.<br />
Der formale Fehler, des so über die Trapezregel definierten Algorithmus berechnet sich zu<br />
Res(y)(t) =<br />
=<br />
m−1<br />
∑<br />
(<br />
∑<br />
(<br />
n=0<br />
∫ tn+1<br />
n=0<br />
m−1 ∫ tn+1<br />
t n<br />
f(y(s), s)ds − (y(t n+1 ) − y(t n )))<br />
t n<br />
f(y(s), s)ds − 1 2 h(f(y(t n+1), t n+1 ) + f(y(t n ), t n )))<br />
Da der Fehler<br />
∫ tn+1<br />
t n<br />
f(y(s), s)ds − 1 2 h(f(y(t n+1), t n+1 ) + f(y(t n ), t n ))<br />
der Trapezregel bei der Berechnung von Integralen [DB94] (der lokale Diskretisierungsfehler)<br />
von der Ordnung O(h 3 ) ist, folgt für den formalen Fehler (der globale Diskretisierungsfehler)<br />
sup ‖Res(y)(t)‖ ≤ O(h 2 ),<br />
t∈[t 0 ,t e]<br />
falls y = y(t) beschränkt ist. Damit werden Lösungen von <strong>Differentialgleichungen</strong> durch die<br />
Trapezregel eine Ordnung (O(h 2 )) besser als durch das Eulerverfahren (O(h)) approximiert.<br />
Im Prinzip gibt es zu jedem Quadraturverfahren zur Berechnung von Integralen mindestens ein<br />
Näherungsverfahren zur Lösung gewöhnlicher <strong>Differentialgleichungen</strong>. Siehe [DB94, Ise96,<br />
SH96]. Es ist aber Vorsicht geboten, wie das folgende Beispiel zeigt.<br />
Beispiel 3.18 Das Verfahren<br />
y(t n+2 ) − 3y(t n+1 ) + 2y(t n ) = h[ 13<br />
12 f(y(t n+2), t n+2 ) − 5 3 f(y(t n+1), t n+1 ) − 5 12 f(y(t n), t n )<br />
ist ein sogenanntes implizites Mehrschrittverfahren der Ordnung O(h 2 ). Damit approximieren<br />
wir die Lösung x(t) = 1 des Anfangswertproblems ẋ = 0, x(0) = 1. Das Näherungsverfahren<br />
lautet<br />
y(t n+2 ) − 3y(t n+1 ) + 2y(t n ) = 0<br />
<strong>und</strong> kann wie jede Differenzengleichung mit konstanten Koeffizienten durch den Ansatz y(t n ) =<br />
λ n gelöst werden. Das charakteristische Polynom λ 2 − 3λ + 2 = 0 besitzt die Wurzeln λ 1 = 1<br />
<strong>und</strong> λ 2 = 2. Damit lautet die allgemeine Lösung des Näherungsverfahrens<br />
y(t n ) = c 1 + c 2 2 n , (c j ∈ R)<br />
34
<strong>und</strong> für die gesuchte Näherung spezifizieren wir c 1 = 1 <strong>und</strong> c 2 = 0. Offensichtlich approximieren<br />
wir die gesuchte Lösung exakt. Machen wir aber nur einen kleinen Fehler bei der Anfangsbedingung<br />
<strong>und</strong> erhalten c 2 ≠ 0, so wirkt sich dies für n = 1/h Iterationen verheerend aus.<br />
Als Konsequenz folgt, dass die Eigenwerte des charakteristischen Polynoms notwendigerweise<br />
|λ| ≤ 1 erfüllen müssen, um überhaupt eine stabile Approximation erhalten zu können.<br />
Die bekanntesten Verfahren sind sogenannte Runge-Kutta Verfahren, welche auf der Gaussquadratur<br />
∫ b<br />
ν∑<br />
f(τ)ω(τ)dτ ∼ b j f(c j )<br />
a<br />
basieren. Dabei werden die 2ν Konstanten b j <strong>und</strong> c j <strong>und</strong> das Gewicht ω entsprechend gewählt.<br />
Siehe erneut [DB94, Ise96, SH96].<br />
j=1<br />
35
4 Asymptotische Stabilität<br />
Die Stabilität von Gleichgewichtslösungen oder periodischen Lösungen kann in vielen Fällen<br />
durch die linearisierte Gleichung nachgewiesen werden. Die mathematische Theorie geht auf<br />
Poincaré <strong>und</strong> Lyapunov zurück. Weiter wollen wir einen ersten Eindruck gewinnen, was passiert,<br />
wenn ein Fixpunkt oder eine periodische Lösung bei Verändern eines Parameters instabil<br />
wird.<br />
4.1 Fixpunkte<br />
Ist ein Fixpunkt x 0 unter seiner Linearisierung ẏ = Ay mit A = ∂f<br />
∂ x<br />
| x=x0 asymptotisch stabil, so<br />
gilt dies auch für das nichtlineare System.<br />
Theorem 4.1 Betrachte ẋ = Ax + g(x) mit x = x(t) ∈ R d , mit x(0) = x 0 <strong>und</strong> den folgenden<br />
Eigenschaften.<br />
i) Es sei A eine konstante d × d-Matrix, deren Eigenwerte λ wie in Abbildung 8 strikt negativen<br />
Realteil besitzen.<br />
Im<br />
Re<br />
Abbildung 8: Spektrum von A im stabilen Fall.<br />
ii) Es sei g : R d → R d Lipschitz-stetig in einer Umgebung U ⊂ R d von x = 0. Weiter gelte<br />
‖g(x)‖<br />
lim = 0.<br />
‖x‖→0 ‖x‖<br />
Dann existieren positive Konstanten C, δ <strong>und</strong> µ > 0, so dass<br />
‖x(t)‖ ≤ C‖x 0 ‖e −µt ,<br />
für alle t ≥ 0 aus ‖x 0 ‖ < δ folgt, d.h. x = 0 ist asymptotisch stabil <strong>und</strong> die δ-Umgebung wird<br />
mit einer exponentiellen Rate angezogen.<br />
Beweis: Der Beweis beruht auf der Idee, dass die nichtlinearen Terme in einer Umgebung von<br />
x = 0 in der Norm viel kleiner als der stets negative Realteil der Linearisierung sind. So erhalten<br />
wir zum Beispiel für x = x(t) ∈ R <strong>und</strong> A = −1 die Differentialungleichung<br />
ẋ = −x + O(x 2 ) ≤ −x + 1 2 x ≤ −1 2 x<br />
36
<strong>und</strong> somit die Konvergenz der Lösungen gegen x = 0.<br />
Nun zum eigentlichen Beweis: Sei φ(t) = S(t, 0) der Lösungsoperator der linearen Gleichung<br />
ẋ = Ax. Da die Eigenwerte von A strikt negativen Realteil besitzen, gibt es positive Konstanten<br />
C 0 (wegen möglicher Jordanblöcke) <strong>und</strong> µ 0 mit<br />
‖φ(t)‖ ≤ C 0 e −µ 0t<br />
für alle t ≥ 0. Aus den Voraussetzungen an g folgt, dass es für alle b > 0 ein δ 0 > 0 gibt, so<br />
dass ‖g(x)‖ ≤ b‖x‖ aus ‖x‖ ≤ δ 0 folgt. Die Variation der Konstantenformel ergibt<br />
x(t) = φ(t)x(0) +<br />
Mit den obigen Abschätzungen erhalten wir<br />
<strong>und</strong> somit<br />
‖x(t)‖ ≤ ‖φ(t)‖‖x 0 ‖ +<br />
∫ t<br />
≤ C 0 e −µ 0t ‖x 0 ‖ +<br />
e µ 0t ‖x(t)‖ ≤ C 0 ‖x 0 ‖ +<br />
0<br />
φ(t − s)g(x(s))ds.<br />
∫ t<br />
0<br />
∫ t<br />
0<br />
∫ t<br />
0<br />
‖φ(t − s)‖ ‖g(x(s)‖ds<br />
C 0 e −µ 0(t−s) b‖x(s)‖ds<br />
C 0 e µ 0s b‖x(s)‖ds.<br />
Wenden wir die Gronwallsche Ungleichung auf e µ 0t ‖x(t)‖ an, so erhalten wir<br />
e µ 0t ‖x(t)‖ ≤ C 0 ‖x 0 ‖e C 0bt<br />
bzw. ‖x(t)‖ ≤ C 0 ‖x 0 ‖e (C 0b−µ 0 )t .<br />
Wir wählen nun b = µ 0 /(2C 0 ) <strong>und</strong> erhalten so ein dazugehöriges δ 0 = δ 0 (b). Somit ist µ =<br />
µ 0 /2, ‖x(t)‖ ≤ C 0 ‖x 0 ‖e −µt <strong>und</strong> δ = C0 −1 δ 0 , womit die asymptotische Stabilität von x = 0<br />
folgt.<br />
□<br />
Beispiel 4.2 Betrachte ẍ + µẋ + sin x = 0 mit µ > 0, d.h. den harmonischen Oszillator mit<br />
Dämpfung. Wir erhalten das System<br />
ẋ 1 = x 2 ,<br />
x˙<br />
2 = −µx 2 − sin x 1 .<br />
Die Linearisierung um die Ruhelage (x 1 , x 2 ) = (0, 0) des Pendels lautet<br />
ẋ 1 = x 2 , ẋ 2 = −µx 2 − x 1 .<br />
( )<br />
0 1<br />
Die dazugehörige Matrix A =<br />
besitzt die Eigenwerte<br />
−1 −µ<br />
λ 1/2 = −µ ± √ µ 2 − 4<br />
.<br />
2<br />
Damit gilt Reλ 1,2 ≤ −µ/2 < 0 für µ > 0 <strong>und</strong> somit ist (x 1 , x 2 ) = (0, 0) im linearisierten wie<br />
auch im nichtlinearen System asymptotisch stabil.<br />
37
Beispiel 4.3 Betrachte ẋ = 0 · x + x 3 mit x(t) ∈ R. Hier ist die Voraussetzung des Satzes an<br />
A = 0 nicht erfüllt. So ist dann auch x = 0 im linearisierten System ẋ = 0 stabil, aber im<br />
nichtlinearen System instabil.<br />
Bemerkung 4.4 Offensichtlich gilt obiger Satz auch für zeitabhängiges g, falls die Voraussetzung<br />
an g gleichmäßig in der Zeit erfüllt ist. Mit Hilfe des Satzes von Floquet läßt sich<br />
obiger Satz dann auch im Falle von zeitlich periodischem A, d.h. A(t) = A(t + T ) für ein<br />
T > 0, beweisen, falls die Floquetexponenten alle negativen Realteil besitzen. Denn, wie<br />
oben bewiesen, erhalten wir durch die Koordinatentransformation x(t) = P (t)z(t) aus ẋ(t) =<br />
A(t)x(t) + g(x(t), t) das System<br />
ż(t) = Bz(t) + P −1 (t)f(P (t)z(t), t).<br />
mit P (t) die periodische Matrix, <strong>und</strong> B die konstante Matrix aus dem Satz aus Floquet. Da nach<br />
Definition die Floquetexponenten durch die Eigenwerte von B gegeben sind, kann obiger Satz<br />
jetzt auf dieses System angewendet werden. Für die Stabilität periodischer Lösungen autonomer<br />
<strong>Systeme</strong> ist dieser Satz wie wir sehen werden nicht anwendbar.<br />
Die Instabilität von Fixpunkten überträgt sich stets vom linearisierten System auf das nichtlineare<br />
System. Wir beweisen dies nun im Fall mindestens eines Eigenwertes mit positivem<br />
Realteil.<br />
Theorem 4.5 Betrachte ẋ = Ax + g(x) mit x = x(t) ∈ R d mit x(0) = x 0 <strong>und</strong> den folgenden<br />
Eigenschaften.<br />
i) Es sei A eine konstante d × d-Matrix mit mindestens einem Eigenwert mit strikt positivem<br />
Realteil. Siehe Abbildung 9.<br />
Im<br />
Re<br />
Abbildung 9: Spektrum von A <strong>und</strong> Phasenbild mit Sektor im instabilen Fall.<br />
ii) Es sei g : R d → R d Lipschitz-stetig in einer Umgebung U ⊂ R d von x = 0. Weiter gelte<br />
Dann ist der Fixpunkt x = 0 instabil.<br />
‖g(x)‖<br />
lim = 0.<br />
‖x‖→0 ‖x‖<br />
38
Beweis: Zum Nachweis dieses Satzes zeigen wir, dass um die linear instabile Richtung ein<br />
Kreissektor mit Radius ɛ existiert, in den die Lösungen seitlich eintreten <strong>und</strong> nur am Kreisbogen<br />
wieder austreten können. Als Beispiel betrachten wir das zweidimensiomale System<br />
ẋ 1 = x 1 + O(x 2 1 + x 2 2), ẋ 2 = −x 2 + O(x 2 1 + x 2 2).<br />
Das Phasenbild <strong>und</strong> der Sektor sind in Abbildung 9 dargestellt. Damit verlassen wir stets diese<br />
ɛ-Umgebung durch den Kreisbogen egal wie nahe wir innerhalb des Sektors an der Null starten.<br />
Nun zum eigentlichen Beweis. Wir machen zunächst eine Koordinatentransformation x = P y<br />
mit P eine konstante d × d-Matrix. Dann ergibt sich die Gleichung<br />
ẏ = By + P −1 g(P y),<br />
mit B =<br />
(<br />
B1<br />
0<br />
)<br />
0<br />
, wobei B 1<br />
B 2<br />
∈ R k×k zum Teil des Spektrums von A mit positivem<br />
Realteil <strong>und</strong> B 2 ∈ R d−k×d−k zum Teil des Spektrums von A mit nichtpositivem Realteil gehört.<br />
Es gibt ein σ > 0, so dass für alle Eigenwerte λ von B 1 gilt Reλ > σ. Aus der linearen<br />
Algebra sei bekannt, dass diese Koordinatentransformation so gewählt werden kann, dass alle<br />
Nichtdiagonalelemente kleiner als γ ≤ σ/20 sind (modifizierter Jordanblock).<br />
Wir definieren R 2 = ∑ k<br />
i=1 |y i| 2 <strong>und</strong> ρ 2 = ∑ d<br />
i=k+1 |y i| 2 .<br />
Aus den Voraussetzungen an g folgt wie oben, dass es für alle b > 0 ein δ 0 > 0 gibt, so dass<br />
‖g(x)‖ ≤ b‖x‖ aus ‖x‖ ≤ δ 0 folgt.<br />
Wir nehmen an, dass x = 0 stabil sei. Dann gibt es für alle ɛ > 0 ein δ > 0, so dass ρ(t)+R(t) <<br />
ɛ für all t ≥ 0 aus ρ(0) + R(0) < δ folgt. Aus den obigen Abschätzungen für die Eigenwerte<br />
von B 1 , die Nichtlinearität <strong>und</strong> die Nebendiagonalelemente folgt<br />
Wählen wir b = σ/10 so ergibt sich<br />
Andererseits ergibt sich in der selben Weise<br />
Da<br />
erhalten wir insgesamt<br />
<strong>und</strong> somit<br />
2RṘ ≥ 2σR2 − 2bR(ρ + R) − 2γR 2 .<br />
Ṙ ≥ σR/2 − bρ<br />
˙ρ ≤ σρ/20 + b(ρ + R).<br />
σR/2 − bρ − σρ/20 − b(ρ + R) ≥ σ(R − ρ)/4<br />
d<br />
(R − ρ) ≥ σ(R − ρ)/4<br />
dt<br />
R(t) − ρ(t) ≥ (R(0) − ρ(0))e σt/4 .<br />
Für Lösungen mit R(0) = 2ρ(0) folgt R(t) ≥ ρ(0)e σt/4 . Dies ist aber unter der Annahme der<br />
Stabilität R(t) + ρ(t) ≤ ɛ nicht möglich, egal wie klein ρ(0) > 0 bzw. δ > 0 gewählt wird. □<br />
39
Bemerkung 4.6 Die obige Bemerkung für den zeitlich periodischen Fall gilt im instabilen Fall<br />
entsprechend.<br />
Beispiel 4.7 Im obigen Beispiel des gedämpften Pendels erhielten wir die Eigenwerte<br />
λ 1/2 = −µ ± √ µ 2 − 4<br />
.<br />
2<br />
Damit gilt Reλ 1,2 ≤ −µ/2 > 0 für µ < 0 <strong>und</strong> somit ist (x 1 , x 2 ) = (0, 0) im linearisierten wie<br />
auch im nichtlinearen System instabil.<br />
4.2 Bifurkation<br />
Was passiert, wenn ein Fixpunkt bei Verändern eines Parameters instabil wird, d.h. im obigen<br />
Beispiel die Reibung µ negativ wird? Dies ist von Interesse, da so möglicherweise kompliziertere<br />
Dynamik gef<strong>und</strong>en <strong>und</strong> analytisch beschrieben werden kann. Anhand einfacher Beipiele<br />
wollen wir solche Situtation untersuchen.<br />
Beispiel 4.8 (Transkritische Bifurkation (von Fixpunkten)) Betrachte<br />
ẋ = µx − x 2 , (x = x(t) ∈ R).<br />
Der Fixpunkt x = x 1 = 0 ist asymptotisch stabil für µ < 0 <strong>und</strong> instabil für µ > 0. Bei µ = 0<br />
überquert wie in Abbildung 10 ein reeller Eigenwert die Imaginäre Achse.<br />
Es existiert ein weiterer Fixpunkt x = x 2 = µ, welcher für µ = 0 mit der trivialen Lösung<br />
Im<br />
Im<br />
Re<br />
Re<br />
µ µ 0<br />
Abbildung 10: Ein Eigenwert überquert die imaginäre Achse.<br />
x 1 = 0 zusammenfällt. Da wir im allgemeinen zunächst nur die triviale Lösung kennen, sagen<br />
wir, dass der Fixpunkt x 2 = µ aus der trivialen Lösung x 1 = 0 verzweigt oder bifurkiert.<br />
Die allgemeine Situation ist wie folgt. Gegeben ist ẋ = f(x, µ) mit µ ∈ R, x = x(t) ∈ R <strong>und</strong><br />
f hinreichend oft differenzierbar. Für alle µ ∈ R sei die triviale Lösung x 1 = 0 bekannt, d.h.<br />
f(x, µ) = xg(x, µ) mit einer hinreichend oft differenzierbaren Funktion g. Gilt<br />
∂f<br />
∂x | x=0 = (x ∂g<br />
∂x + g)| x=0 = g ≠ 0<br />
40
x<br />
µ<br />
Abbildung 11: Transkritische Bifurkation von Fixpunkten.<br />
für ein µ = µ 0 , so kann f nach dem Satz über implizite Funktionen nach x = x(µ) aufgelöst<br />
werden. Damit können in dieser Umgebung neben der trivialen Lösung x 1 = 0 keine weiteren<br />
Fixpunkte existieren. Mit Hilfe des Newtonverfahrens kann die Familie des trivialen Fixpunktes<br />
µ ↦→ x 1 (µ) im Parameterraum solange verfolgt werden, bis die Voraussetzungen des Satzes über<br />
implizite Funktionen verletzt sind. Siehe das Programmpaket AUTO von E. Doedel, welches in<br />
XPP enthalten ist. Notwendig für die Verzweigung bzw. Bifurkation von Fixpunkten ist daher<br />
∂f<br />
∂x | x=0 = (x ∂g<br />
∂x + g)| x=0 = g = 0<br />
für ein µ = µ 0 , d.h. g(0, µ 0 ) = 0. Ist nun die Nicht-Degeneriertheitsbedingung<br />
∂g<br />
∂µ | (x,µ)=(0,µ 0 ) ≠ 0<br />
erfüllt, so kann nach dem Satz über implizite Funktionen in einer Umgebung (x, µ) = (0, µ 0 )<br />
die Funktion g nach µ = µ(x) aufgelöst werden <strong>und</strong> daher bifurkiert für µ = µ 0 aus der<br />
trivialen Lösung eine von der Familie der trivialen Lösung verschiedener Fixpunkt x = x 2 (µ).<br />
Siehe Abbildung 11.<br />
Wir sprechen daher von einer transkritischen Bifurkation. Es findet ein Austausch der Stabilitäten<br />
statt. Für µ < 0 ist x = 0 stabil <strong>und</strong> x = µ instabil. Für µ > 0 ist x = 0 instabil <strong>und</strong><br />
x = µ stabil.<br />
Beispiel 4.9 Betrachte f(x, µ) = µx + x 2 + sin x. Es gilt f(0, µ) = 0 für alle µ ∈ R. Damit ist<br />
x = 0 für alle µ ∈ R die triviale Lösung. Es ist<br />
∂f<br />
∂x | x=0 = (µ − 2x + cos x)| x=0 = µ + 1<br />
<strong>und</strong> somit kann eine Verzweigung nur für µ + 1 = 0 stattfinden. Wir führen daher den kleinen<br />
Bifurkationsparameter µ + 1 = α ein <strong>und</strong> erhalten g = µ + x + sin(x)/x = α + x + O(x 2 ). Da<br />
die Nicht-Degeniertheitsbedingung ∂g/∂µ| x=0,µ=1 = 1 ≠ 0 erfüllt ist, findet eine transkritische<br />
Bifurkation von Fixpunkten x = −α + O(α 2 ) statt.<br />
Mittels eines Potenzreihenansatzes kann die Funktion x = x(α) = ∑ ∞<br />
n=1 c nα n näherungsweise<br />
berechnet werden. Es ergibt sich<br />
g = α(1 + c 1 ) + α 2 (c 2 − c 2 1 /6) + O(α3 )<br />
41
<strong>und</strong> so c 1 = −1 <strong>und</strong> c 2 = 1/6.<br />
Eine alternative Vorgehensweise ist das Skalieren der Lösungen ohne den Umweg über g direkt<br />
in f. Wir setzen x = αy <strong>und</strong> erhalten die skalierte Funktion<br />
F (y, α) = α −2 f(αy, 1 + α) = y + y 2 + O(α).<br />
Damit haben wir für α = 0 die einfache Gleichung F (y, 0) = y + y 2 , welche explizit gelöst<br />
werden kann. Mit dem Satz über implizite Funktionen können wir wegen<br />
dF<br />
dy | (y,α)=(y j ,0) = (1 + 2y)| (y,α)=(yj ,0) ≠ 0<br />
die Funktion F in einer Umgebung um (y, α) = (y j , 0) nach y auflösen <strong>und</strong> erhalten y 0 =<br />
0 + O(α) <strong>und</strong> y 1 = −1 + O(α).<br />
Beispiel 4.10 (Pitchfork-Bifurkation (von Fixpunkten)) Betrachte<br />
ẋ = µx − x 3 , (x = x(t) ∈ R).<br />
Die lineare Stabilitätsanalysis von x = 0 ist wie oben. Der Fixpunkt x = 0 ist asymptotisch<br />
stabil für µ < 0 <strong>und</strong> instabil für µ > 0. Bei µ = 0 überquert wie in Abbildung 10 ein reeller<br />
Eigenwert die imaginäre Achse. Für µ = 0 verzweigen zwei weitere Fixpunkte x 2,3 = ± √ µ<br />
aus der trivialen Lösung x 1 = 0. Es findet ein Austausch der Stabilitäten statt. Für µ < 0 ist<br />
x 1 = 0 stabil. Für µ > 0 ist x 1 = 0 instabil <strong>und</strong> x 2,3 = ± √ µ stabil, da die Linearisierung<br />
A = (µ − 3x 2 )| x=x2,3 = −2µ für µ > 0 den negativen Eigenwert −2µ besitzt. Da die Fixpunkte<br />
nur für µ > 0 existieren, sprechen wir von einer superkritischen Bifurkation, im Gegensatz zur<br />
subkritischen Bifurkation. Siehe Abbildung 12.<br />
x<br />
µ<br />
Abbildung 12: Eine superkritische Pitchfork-Bifurkation von Fixpunkten.<br />
Beispiel 4.11 Betrachte f(x, µ) = µx + sin x. Wieder wird x = 0 für µ = −1 instabil. Wir<br />
setzen α 2 = µ + 1 <strong>und</strong> x = αy. Die umskalierte Funktion<br />
F (y, α) = α −3 f(αy, 1 + α 2 ) = y − 1 6 y3 + O(α 2 ).<br />
42
kann für α = 0 explizit gelöst werden. Mit dem Satz über implizite Funktionen können wir<br />
y 1 = 0 + O(α 2 ) <strong>und</strong> y 2,3 = ± √ 6 + O(α 2 ) <strong>und</strong> somit x 1 = 0 <strong>und</strong> x 2,3 = ± √ 6 α + O(α 3 ) für<br />
α > 0 zeigen.<br />
Beispiel 4.12 (Sattel-Knoten-Bifurkation (von Fixpunkten)) Betrachte<br />
ẋ = µ − x 2 , (x = x(t) ∈ R).<br />
Hier entstehen zwei Fixpunkte x 1,2 = ± √ µ für µ = 0 aus dem nichts. Die Linearisierung um<br />
x 1,2 ist durch µ ∓ 2 √ µ gegeben. Damit ist x 1 instabil <strong>und</strong> x 2 stabil. Siehe Abbildung 13.<br />
x<br />
µ<br />
Abbildung 13: Die Sattel-Knoten-Bifurkation.<br />
Wie das folgende Beispiel zeigt können in mehr als einer Raumdimension aus einem Fixpunkt<br />
auch echt periodische Lösungen verzweigen. Eine Lösung x = x(t) der Gewöhnlichen Differentialgleichung<br />
heißt periodisch, falls es ein T > 0 gibt, so dass x(t) = x(t + T ) für alle<br />
t ∈ R.<br />
Beispiel 4.13 (Die Hopf-Bifurkation.) Betrachte das zweidimensionale Differentialgleichungssystem<br />
ẋ 1 = µx 1 + x 2 − x 1 (x 2 1 + x2 2 ), ẋ 2 = −x 1 + µx 2 − x 2 (x 2 1 + x2 2<br />
( )<br />
)<br />
µ 1<br />
mit µ ∈ R. Die Linearisierung A =<br />
um die triviale Lösung besitzt die Eigenwerte<br />
−1 µ<br />
λ 1,2 = µ±i, d.h. zwei konjugiert komplexe Eigenwerte mit nichtverschwindendem Imaginärteil<br />
überqueren wie in Abbildung 14 die imaginäre Achse.<br />
Führen wir Polarkoordinaten x 1 = r sin φ <strong>und</strong> x 2 = r cos φ mit r ≥ 0 <strong>und</strong> φ ∈ R/(2πZ) ein so<br />
transformiert sich dass das obige System in<br />
ṙ = µr − r 3 , ˙φ = 1,<br />
d.h. aus der trivialen Lösung x = 0 verzweigt bei µ = 0 eine Familie periodischer Lösungen<br />
{x = x per (t, µ, φ 0 ) | x 1 = √ µ sin(t + φ 0 ), x 2 = √ µ cos(t + φ 0 )}.<br />
43
Im<br />
Im<br />
Re<br />
Re<br />
Abbildung 14: Zwei konjugiert komplexe Eigenwerte mit nichtverschwindendem Imaginärteil<br />
überqueren die imaginäre Achse.<br />
Wir sprechen von einer superkritischen Hopf-Bifurkation. Diese Familie zieht für festes µ jede<br />
Lösung mit einer exponentiellen Rate O(exp(−2µt)) an. Siehe Abbildung 15.<br />
Abbildung 15: Das Phasenbild für µ > 0.<br />
Wie wir später sehen werden, findet diese Bifurkation generischerweise statt, wenn ein Fixpunkt<br />
dadurch instabil wird, dass ein Paar konjugiert komplexer Eigenwerte die imaginäre Achse<br />
überquert.<br />
4.3 Intervallabbildungen<br />
Bei der Untersuchung der Stabilität periodischer Lösungen werden wir die diskrete Poincaré-<br />
Abbildung verwenden. Deshalb schieben wir hier Betrachtungen zu Iterationen x n+1 = f(x n )<br />
mit f : R → R ein.<br />
Definition 4.14 Der Vorwärtsorbit eines Punktes x ∈ R ist die Menge der Punkte x, f(x), f 2 (x)<br />
usw. Er wird mit O + (x) bezeichnet. Ist f ein Homöomorphismus, so kann der Rückwärtsorbit<br />
44
O − (x) eines Punktes x ∈ R durch die Menge der Punkte x, f −1 (x), f −2 (x), . . . definiert werden.<br />
Der Orbit O(x) von x ist dann durch O(x) = O + (x) ∪ O − (x) gegeben.<br />
Definition 4.15 Ein Punkt x ∈ R heißt Fixpunkt von f, wenn f(x) = x gilt. Ein Punkt x ∈ R<br />
heißt periodischer Punkt der Periode n, wenn f n (x) = x gilt. Das kleinste solche n heißt minimale<br />
Periode. Die Menge der Iterierten eines periodischen Punktes definiert einen periodischen<br />
Orbit. Die Menge der Fixpunkte bezeichnen wir mit Fix(f). Die Menge der periodischen Punkte<br />
der Periode n bezeichnen wir mit Per n (f).<br />
Beispiel: Die Abbildung f(x) = −x besitzt den Fixpunkt x = 0. Jeder Punkt x ∈ R ist ein<br />
periodischer Punkt der Periode 2, da f 2 (x) = x.<br />
Beispiel: Sei S 1 = R/2πZ der Einheitskreis in der Ebene. Ein Punkt in S 1 ist eindeutig durch<br />
seinen Winkel θ festgelegt. Betrachte dann f(θ) = 2θ. Da f(θ) = f(θ + 2π) gilt, ist diese<br />
Abbildung wohldefiniert. Es gilt f n (θ) = 2 n θ, so daß θ ein periodischer Punkt der Periode n<br />
ist genau dann wenn 2 n θ = θ + 2kπ für ein k ∈ Z, d.h. wenn θ = 2kπ/(2 n − 1). Damit<br />
sind die periodischen Punkte der Periode n die (2 n −1)–ten Einheitswurzeln. Für n = 2 ergibt<br />
sich der 2-periodische Orbit (1/3, 2/3)2π. Für n = 3 ergeben sich die 3-periodischen Orbits<br />
(1/7, 2/7, 4/7)2π <strong>und</strong> (3/7, 6/7, 5/7)2π. Für n = 4 ergeben sich die 4-periodischen Orbits<br />
(1/15, 2/15, 4/15, 8/15)2π, (3/15, 6/15, 12/15, 9/15)2π <strong>und</strong> (7/15, 14/15, 13/15, 11/15)2π.<br />
Der Einfachheit halber betrachten wir im folgenden konkret die Familie der Abbildungen<br />
f µ (x) = µx(1 − x).<br />
Zunächst untersuchen wir die Fixpunkte <strong>und</strong> deren Stabilität.<br />
Lemma 4.16 Es gilt f µ (0) = f µ (1) = 0 <strong>und</strong> für alle µ > 1 existiert ein nicht trivialer Fixpunkt<br />
p µ = f µ (p µ ) = µ − 1<br />
µ<br />
∈ (0, 1).<br />
Beweis: Aus der Bedingung µx(1 − x) = x folgt sofort die Behauptung.<br />
□<br />
Lemma 4.17 Sei µ > 1. Für x < 0 oder x > 1 gilt fµ n (x) → −∞ für n → ∞<br />
Beweis: Wenn x < 0, dann gilt f µ (x) = µx(1−x) 1 <strong>und</strong> (1−x) > 1. Angenommen<br />
es existiert ein p < 0 mit lim n→∞ fµ n (x) = p. Dann gilt lim n→∞ fµ n+1 (x) = f µ (p) < p im<br />
Widerspruch zu lim n→∞ fµ n+1 (x) = p. Da f µ (x) < 0 für x > 1, ist das Lemma bewiesen. □<br />
Für µ ∈ (1, 3) ist der Fixpunkt p µ = µ − 1<br />
µ stabil. Im Gegensatz dazu ist der Fixpunkt x = 0<br />
instabil.<br />
Definition 4.18 Ein Fixpunkt p µ heißt stabil, wenn für alle ɛ > 0 ein δ > 0 existiert, so daß<br />
|f n µ (x) − p µ| < ɛ für alle n ∈ N, falls |x − p µ | < δ. Ist p µ nicht stabil, so heißt p µ instabil. Ein<br />
n-periodischer Punkt heißt stabil, falls er stabil unter der n-ten Iteration F n ist (entsprechend<br />
instabil).<br />
45
Zum Nachweis der Stabilität verwenden wir folgendes Kriterium.<br />
Theorem 4.19 Der Fixpunkt x = 0 ist stabil (bzw. instabil) unter der Iteration x n+1 =Bx n +g(x n ),<br />
g(x) = O(|x| 2 ), wenn |B| < 1 (bzw. |B| > 1).<br />
Beweis: Setze b = |B| − 1. Nach Voraussetzung gibt es ein ɛ > 0, so daß |g(x)| ≤ |b||x|/2 für<br />
alle |x| ≤ ɛ. Damit gilt im Fall |B| > 1, daß<br />
|x n+1 | ≥ |B||x n | − |b||x n | ≥ |1 + b/2||x n |<br />
für |x| ≤ ɛ, woraus unmittelbar die Instabilität folgt. Denn für alle δ > 0 gibt es ein n ∈ N mit<br />
|x n | ≥ |1 + b/2| n δ ≥ ɛ. Im Fall |B| < 1, d.h. auch |1 + b/2| < 1, folgt<br />
|x n+1 | ≤ |B||x n | − |b||x n | ≤ |1 + b/2||x n |<br />
<strong>und</strong> damit unmittelbar die Stabilität. Wähle dazu δ = ɛ.<br />
Bemerkung: Ist x ∈ R d , so ist x = 0 stabil, wenn alle Eigenwerte λ der Matrix B ∈ R d×d die<br />
Bedingung |λ| < 1 erfüllen. Gibt es ein Eigenwert mit |λ| > 1, so ist x = 0 instabil. Der Punkt<br />
x = 0 heißt hyperbolisch, wenn alle Eigenwerte λ der Matrix B ∈ R d×d die Bedingung |λ| ≠ 1<br />
erfüllen.<br />
Wir wenden dieses Kriterium nun an. Dazu betrachten wir die Linearisierung um die Fixpunkte<br />
i) x = 0:<br />
y n+1 = f ′ µ(0)y n<br />
mit f ′ µ (0) = µ(1 − 2x)| x=0 = µ. Da der Eigenwert µ der Linearierung für µ ∈ (1, 3) außerhalb<br />
des Einheitskreises {z ∈ C | |z| = 1} liegt, ist x = 0 instabil<br />
ii) x = p µ :<br />
y n+1 = f ′ µ(p µ )y n<br />
mit f µ ′ (p µ) = µ(1 − 2x)| x=pµ = µ(1 − 2(µ − 1)/µ) = −µ + 2. Da der Eigenwert −µ + 2 der<br />
Linearierung für µ ∈ (1, 3) innerhalb des Einheitskreises {z ∈ C | |z| = 1} liegt, ist x = 0<br />
stabil.<br />
Es gilt zusätzlich<br />
Lemma 4.20 Sei µ ∈ (1, 3) <strong>und</strong> x ∈ (0, 1), so gilt lim n→∞ f n µ (x) = p µ .<br />
Beweis: Sei zunächst µ ∈ (1, 2). Es gilt dann f µ (1/2) < 1/2. Für x ∈ (0, 1/2) folgt sofort,<br />
daß |f µ (x) − p µ | < |x − p µ |, womit sofort die Behauptung folgt. Ist x ∈ (1/2, 1), so folgt<br />
f µ (x) ∈ (0, 1/2) <strong>und</strong> die Überlegungen für x ∈ (0, 1/2) sind sofort anwendbar.<br />
Sei jetzt µ ∈ (2, 3). Hier betrachten wir fµ. 2 Aus dem Graph von fµ 2 ist sofort klar, daß es für<br />
µ
1<br />
0.8<br />
0.6<br />
0.4<br />
0.2<br />
0<br />
0 0.2 0.4 0.6 0.8 1<br />
1<br />
0.8<br />
0.6<br />
0.4<br />
0.2<br />
0<br />
0 0.2 0.4 0.6 0.8 1<br />
Abbildung 16: i) Die Funktion x ↦→ f µ (x) für µ ∈ (1, 2) ii) Die Funktion x ↦→ fµ 2 (x) für µ ∈ (2, 3).<br />
Wenn µ > 3 ist, wird das Verhalten mit zunehmendem µ komplizierter. Dieses Anwachsen<br />
an Komplexität wollen wir später im Detail untersuchen. Für µ > 4 liegt chaotische Dynamik<br />
vor, die wir nun genauer betrachten wollen. In diesem Fall gilt für das Maximum f µ (1/2) > 1.<br />
Damit gibt es eine offene Menge<br />
1.2<br />
1<br />
0.8<br />
0.6<br />
0.4<br />
0.2<br />
0<br />
0 0.2 0.4 0.6 0.8 1<br />
Abbildung 17: Die Funktion x ↦→ f µ (x) für µ > 4.<br />
A 0 = {x ∈ I = [0, 1] | f µ (x) > 1}.<br />
Für x ∈ A 0 gilt fµ 2 (x) < 0 <strong>und</strong> folglich f µ n (x) → −∞ für n → ∞. Definiere dann A 1 = {x ∈<br />
I | f µ (x) ∈ A 0 }. Für x ∈ A 1 gilt fµ 3 (x) < 0 <strong>und</strong> folglich f µ n (x) → −∞ für n → ∞. Weiter<br />
setzen wir<br />
A n = {x ∈ I | f n µ (x) ∈ A 0}<br />
= {x ∈ I | f j µ(x) ∈ I für j ≤ n, aber f n+1<br />
µ (x) ∉ I},<br />
d.h. A n besteht aus allen Punkten, die I bei der n + 1-ten Iteration verlassen.<br />
Wir analysieren nun die Dynamik auf der Menge<br />
Λ = I − (∪ ∞ n=0 A n),<br />
47
estehend aus den Punkten, die unter allen Iterationen in I bleiben.<br />
Wir zeigen zunächst, daß Λ eine Cantormenge ist. Die Menge I − A 0 besteht aus zwei abgeschlossenen<br />
Intervallen I 0 <strong>und</strong> I 1 , <strong>und</strong> f µ bildet I 0 , bzw. I 1 monoton auf I ab. Damit gibt es in I 0<br />
<strong>und</strong> I 1 zwei offene Intervalle, die durch f µ auf A 0 abgebildet werden. Die Menge A 1 ist die Vereinigung<br />
dieser Intervalle. Betrachte nun I − (A 0 ∪ A 1 ). Diese Menge besteht folglich aus vier<br />
abgeschlossenen Intervallen. Jedes dieser Intervalle wird durch fµ 2 monoton auf I abgebildet.<br />
Die Menge A n besteht damit aus 2 n offenen Intervallen. Entsprechend ist I − (A 0 ∪ . . . ∪ A n )<br />
die Vereinigung von 2 n+1 abgeschlossenen Intervallen. Jedes dieser Intervalle wird durch f n+1<br />
monoton auf I abgebildet.<br />
Diese Konstruktion erinnert uns an:<br />
Definition 4.21 Eine Menge Λ ist eine Cantormenge, wenn sie abgeschlossen, total unzusammenhängend<br />
<strong>und</strong> perfekt ist. Eine Menge heißt total unzusammenhängend, wenn sie keine offenen<br />
Intervalle enthält. Eine Menge heißt perfekt, wenn jeder Punkt Limespunkt anderer Punkte<br />
dieser Menge ist.<br />
Beispiel: Eine klassisches Beispiel einer solchen Menge erhalten wir indem wir aus I zunächst<br />
das Intervall (1/3, 2/3) entfernen. Danach werden die Intervalle (1/9, 2/9) <strong>und</strong> (7/9, 8/9)<br />
entfernt. Setzen wir diese Konstruktion fort, erhalten wir eine Cantormenge mit der gleichen<br />
Mächtigkeit wie I, aber mit Maß Null. Im n-ten Schritt besteht die erhaltenene Menge aus 2 n<br />
Intervallen der Länge 3 −n . Ein x ∈ [0, 1] ist in dieser Cantormenge, wenn x = ∑ ∞<br />
i=1 a i3 −i mit<br />
a i ∈ {0, 2}.<br />
Die oben konstruierte Menge Λ ist wie bereits erwähnt für alle µ > 4 eine Cantormenge. Wir<br />
beweisen hier<br />
Theorem 4.22 Für µ > 2 + √ 5 ist Λ eine Cantormenge.<br />
Beweis: Unter der Voraussetzung, daß µ > 2 + √ 5 ist, gilt |f ′ µ(x)| ≥ λ für ein λ > 1 <strong>und</strong> alle<br />
x ∈ I 0 ∪ I 1 . Nach der Kettenregel gilt |(f n µ )′ (x)| > λ n . Wir nehmen an Λ würde ein Intervall<br />
[x, y] enthalten. Nach dem Mittelwertsatz gibt es ein n ∈ N mit<br />
|fµ n (x) − f µ n (y)| ≥ inf |(fµ n )′ (α)| |x − y| ≥ λ n |x − y| > 1,<br />
α∈[x,y]<br />
was zur Folge hätte, daß entweder f n µ (x) oder f n µ (y) außerhalb von I liegen müssten. Damit<br />
muß Λ total unzusammenhängend sein.<br />
Λ ist als Schnitt abgeschlossener Mengen wieder abgeschlossen.<br />
Um zu zeigen, daß Λ perfekt ist, stellen wir zunächst fest, daß jeder Endpunkt der A k nach endlich<br />
vielen Iterationen auf 0 abgebildet wird. Sei nun p ∈ Λ isoliert, so muß jeder benachbarte<br />
Punkt das Intervall I nach endlich vielen Schritten verlassen <strong>und</strong> gehört damit zu einem A k .<br />
Entweder gibt es damit a) eine Folge von Endpunkten der A k die gegen p ∈ Λ konvergieren<br />
oder b) ein k ∈ N <strong>und</strong> eine Umgebung U um p, so daß fµ k (U/{p}) außerhalb I liegt.<br />
48
zu a) In diesem Fall ist p ∈ Λ nicht isoliert.<br />
zu b) Somit muß es ein n ∈ N geben, so daß f n (p) = 0 <strong>und</strong> f n (x) < 0 für alle x ∈ U/{p}.<br />
Damit gilt (fµ n )′ (p) = 0. Nach der Kettenregel gibt es damit ein i < n mit F ′ (f i (p)) = 0,<br />
woraus f i (p) = 1/2 <strong>und</strong> dann f i+1 (p) ∉ I folgt im Widerspruch zu f n (p) = 0.<br />
□<br />
Die so konstruierten Cantormengen sind Fraktale. Fraktale spielen in der Theorie der dynamischen<br />
<strong>Systeme</strong> eine wichtige Rolle. Attraktoren (Limesmenge der Gesamtheit der Lösungen<br />
für n → ∞) besitzen häufig fraktale Geometrie <strong>und</strong> werden dann als seltsam (engl. strange)<br />
bezeichnet. Ihnen kann eine nicht ganzzahlige Dimension zugewiesen werden. Fraktale spielen<br />
heute auch bei Computergrafiken <strong>und</strong> bei der Analyse von Börsenkurse eine wichtige Rolle.<br />
Einschub Fraktale:<br />
Der folgende Abschnitt beruht auf den Büchern [Man91, PR86, GH83]. Dort findet sich:<br />
Eine Menge mit nicht ganzzahliger Hausdorff-Dimension ist ein Fraktal.<br />
Definition 4.23 Die Hausdorff-Dimension einer Menge M ⊂ R m ist das Infimum aller d mit<br />
der folgenden Eigenschaft. Für alle ɛ > 0 gibt es ein δ > 0 <strong>und</strong> eine Überdeckung U von M, so<br />
daß die Mengen B ∈ U alle Radius kleiner als δ > 0 haben <strong>und</strong> ∑ B∈U (diamB)d < ɛ.<br />
Für euklidische Räume <strong>und</strong> glatte Mannigfaltigkeiten stimmt die Hausdorff-Dimension mit der<br />
üblichen Definition überein.<br />
Beispiel: Wir überdecken M = [0, 1] ∈ R (bzw. R m ) durch 1/δ viele Intervalle (bzw. m-<br />
dimensionale Kugeln) der Länge δ. Der Ausdruck<br />
1/δ<br />
∑<br />
∑<br />
(diamB) d = δ d = δ d−1<br />
B∈U<br />
kann für festes d > 1 durch die Wahl von einem kleinen δ > 0 kleiner als ein vorgegebenes<br />
ɛ > 0 gemacht werden. Das Infimum all dieser d ist 1.<br />
n=0<br />
0<br />
δ<br />
1<br />
Abbildung 18: Überdeckung von [0, 1] in R 2 .<br />
Beispiel: Die obige Cantormenge C kann nach Konstruktion durch 2 n Intervalle der Länge<br />
δ = 3 −n überdeckt werden. Der Ausdruck<br />
∑<br />
(diamB) d =<br />
B∈U<br />
2 n ∑<br />
j=0<br />
(3 −n ) d = (2/3 d ) n<br />
49
kann für d > ln 2 durch die Wahl von einem kleinen δ > 0 kleiner als ein vorgegebenes ɛ ><br />
ln 3<br />
0 gemacht werden. Da diese Abschätzung (ohne Beweis) auch scharf ist, ist die Hausdorff-<br />
Dimension der Cantormenge C daher ln 2 . Damit ist die Cantormenge C ein Fraktal.<br />
ln 3<br />
Wir suchen nun nach einem Modell für die von f µ auf Λ induzierte Dynamik. Dieses Modell<br />
wird als Definition für chaotisches Verhalten dienen.<br />
Einschub Shiftdynamik:<br />
Betrachte die Menge<br />
versehen mit der Metrik<br />
Σ 2 = 2 N = {a : N → {0, 1} | a = (a i ) i∈N }<br />
d(a, b) = ∑ j∈N<br />
2 −j |a j − b j |.<br />
Die Shiftabbildung σ : Σ 2 → Σ 2 wird durch (σ(a)) i = a i+1 definiert <strong>und</strong> ist offensichtlich<br />
stetig. Diese zunächst langweilig wirkende Abbildung kann als Inbegriff chaotischen Verhaltens<br />
angesehen werden.<br />
Lemma 4.24 i) Es existieren nicht triviale periodische Lösungen zu jeder Minimalperiode.<br />
ii) Es existiert ein dichter Orbit.<br />
iii) Es gilt die sensitive Abhängigkeit von den Anfangsbedingeungen, d.h. zu jedem a ∈ Σ 2 <strong>und</strong><br />
zu jedem δ > 0 existiert ein b ∈ Σ 2 <strong>und</strong> ein j ≥ 0, so daß d(σ j (a), σ j (b)) = 1/2, obwohl<br />
d(a, b) ≤ δ.<br />
Bemerkung: Punkt iii) entspricht der Unverhersagbarkeit von Ereignissen (z.B. bei der Wettervorhersage),<br />
denn: Ist der Wert von a ∈ Σ 2 nur bis auf einen Meßfehler δ bekannt, so liegen<br />
die Werte von a j nur für j ≤ j 0 mit j 0 = j 0 (δ) eindeutig fest. Für j ≥ j 0 sind die Werte von a j<br />
willkürlich, d.h. selbst der ungefähre Wert von σ j (a) ist unvorhersagbar.<br />
Bemerkung: Da die Menge der periodischen Lösungen abzählbar ist, enthält M eine überabzählbare<br />
Menge nichtperiodischer, beschränkter Lösungen.<br />
Beweis: i) Die 1-periodischen Lösungen sind zu a = 00000 . . . <strong>und</strong> a = 11111 . . . gegeben. Die<br />
2-periodischen Lösungen werden durch 00, 01, 10 <strong>und</strong> 11 erzeugt. Die 3-periodischen Lösungen<br />
werden durch 000, 001, 010, 100, 110, 101, 011 <strong>und</strong> 111 erzeugt, usw.<br />
ii) Wir betrachten den Orbit zur wie folgt konstruierten Anfangsbedingung a. Wir fügen an a<br />
nacheinander alle erzeugenden Sequenzen periodischer Lösungen an d.h. beginnend mit j = 0<br />
lautet<br />
a = 0100011011000001010100110101011111000000010010 . . .<br />
Zu einem vorgegebenem ɛ > 0 <strong>und</strong> b ∈ Σ 2 müssen wir ein n ∈ N finden, so daß d(b, σ n (a)) ≤ ɛ.<br />
Ein Punkt c ∈ Σ 2 erfüllt d(b, c) ≤ ɛ, wenn b j = c j für j ≤ j 0 (ɛ). Für j ≥ j 0 (ɛ) kann c j beliebig<br />
sein. Da a alle endlichen Sequenzen enthält gibt es ein n ∈ N mit (σ n (a)) j = b j für j ≤ j 0 (ɛ),<br />
womit die Behauptung folgt.<br />
50
iii) Sei a ∈ Σ 2 <strong>und</strong> δ > 0 gegeben. Setze dann b j = a j für j ≤ j 0 (δ) <strong>und</strong> a j0 (δ)+1 ≠ b j0 (δ)+1,<br />
womit die Behauptung folgt.<br />
□<br />
Die Shiftdynamik wird zur Definition chaotischen Verhaltens wie folgt verwendet.<br />
Definition 4.25 Ein dynamisches System x n+1 = f(x n ) mit f : R d → R d heißt chaotisch, falls<br />
sich in diesem System Shiftdynamik findet. Genauer: Es gibt eine Teilmenge Λ ⊂ R d <strong>und</strong> einen<br />
Homöomorphismus h : Λ → Σ 2 , so daß σ ◦ h = h ◦ f.<br />
Bemerkung: Die Abbildungen f <strong>und</strong> σ heißen dann konjugiert.<br />
Definition 4.26 Die Reiseroute von x ist die Folge h(x) = (s j ) n∈N = s 0 s 1 s 2 . . ., wobei s j = 0,<br />
wenn F j µ (x) ∈ I 0 <strong>und</strong> s j = 1, wenn F j µ (x) ∈ I 1.<br />
Theorem 4.27 Für µ > 2 + √ 5 ist h : Λ → Σ 2 ein Homöomorphismus.<br />
Beweis: Wir zeigen zunächst, daß h bijektiv ist.<br />
Wir nehmen an, daß es x, y ∈ Λ gibt mit h(x) = h(y). Dann liegen fµ n (x) <strong>und</strong> fµ n (y) auf der<br />
gleichen Seite von 1/2. Da f µ auf dieser Seite monoton ist, bleiben mit den Endpunkten des<br />
Intervals [fµ n (x), f µ n (y)] auch alle andern Punkte des Intervalls auf der gleichen Seite von 1/2<br />
<strong>und</strong> damit in Λ, was im im Widerspruch zur totalen Unzusammenhängigkeit von Λ steht.<br />
Um die Surjektivität zu zeigen, führen wir die folgende Bezeichnung ein. Sei J ⊂ I ein abgeschlossenes<br />
Intervall. Weiter sei<br />
fµ −n (J) = {x ∈ I | f µ n (x) ∈ J},<br />
d.h. Fµ −1 (J) ist das Urbild von J. Wenn J ⊂ I ein abgeschlossens Intervall ist, so besteht das<br />
Urbild aus zwei abgeschlossenen Intervallen, eines in I 0 <strong>und</strong> eines in I 1 . Zu s = s 0 s 1 s 2 . . .<br />
müssen wir ein x ∈ Λ mit h(x) = s konstruieren. Dazu definieren wir<br />
Es ist<br />
I s0 s 1 ...s n<br />
= {x ∈ I | x ∈ I s0 , f µ (x) ∈ I s1 , . . . , f n µ (x) ∈ I s n<br />
}<br />
= I s0 ∩ f −1<br />
µ (I s 1<br />
) ∩ . . . ∩ f −n<br />
µ (I s n<br />
).<br />
I s0 s 1 ...s n<br />
= I s0 ∩ f −1<br />
µ (I s1 ...s n<br />
).<br />
Wir nehmen an, daß I s1 ...s n<br />
ein nicht leeres abgeschlossenes Intervall ist. Nach den obigen Überlegungen<br />
besteht fµ −1 (I s1 ...s n<br />
) aus zwei abgeschlossenen Intervallen, je eines in I 0 <strong>und</strong> eines in<br />
I 1 . Damit ist I s0 ∩ fµ −1(I<br />
s 1 ...s n<br />
) ein einziges abgeschlossenes Intervall. Diese Intervalle erfüllen<br />
Damit folgt, daß<br />
I s0 ...s n<br />
= I s0 ...s n−1<br />
∩ f −n<br />
µ (I s n<br />
) ⊂ I s0 ...s n−1<br />
.<br />
∩ n≥0 I s0 ...s n<br />
51
nicht leer ist. Wenn x ∈ ∩ n≥0 I s0 ...s n<br />
, dann gilt x ∈ I s0 , f µ (x) ∈ I s1 , usw. <strong>und</strong> somit h(x) =<br />
(s 0 s 1 . . .), woraus die Surjektivität folgt.<br />
Um die Stetigkeit von h zu zeigen, wählen wir x ∈ Λ mit h(x) = s 0 s 1 . . .. Sei ɛ > 0 <strong>und</strong> wähle<br />
n ∈ N mit 1/2 n < ɛ. Die Menge der Intervalle I t0 ...t n<br />
für alle möglichen Kombinationen von<br />
t 0 . . . t n sind disjunkt <strong>und</strong> ihre Vereinigung enthält Λ. Es gibt 2 n+1 solche Intervalle <strong>und</strong> I s0 ...s n<br />
ist eines von ihnen. Wir wählem nun δ > 0, so daß aus |x − y| < δ <strong>und</strong> y ∈ Λ die Beziehung<br />
y ∈ I s0 ...s n<br />
folgt. Damit gilt aber, daß h(x) <strong>und</strong> h(y) in der ersten n + 1 Stellen übereinstimmen<br />
<strong>und</strong> somit<br />
d(h(x), h(y)) < 1 2 < ɛ. n<br />
Damit ist die Stetigkeit von h gezeigt. Analog folgt die Stetigkeit von h −1 .<br />
Es bleibt die Konjugiertheit der Flüsse zu zeigen.<br />
□<br />
Theorem 4.28 Es gilt h ◦ f µ = σ ◦ h.<br />
Beweis: Ein Punkt x ∈ Λ ist eindeutig durch ∩ n≥0 I s0 ...s n<br />
festgelegt. Es ist<br />
so daß<br />
da f µ (I s0 ) = I. Es ergibt sich<br />
I s0 ...s n<br />
= I s0 ∩ f −1<br />
µ (I s1 ) ∩ . . . ∩ f −n<br />
µ (I sn ),<br />
f µ (I s0 ...s n<br />
) = I s1 ∩ f −1<br />
µ (I s 2<br />
) ∩ . . . ∩ f −(n−1)<br />
µ (I sn ) = I s1 ...s n<br />
,<br />
h ◦ f µ (x) = h ◦ f µ (∩ ∞ n=0 I s 0 ...s n<br />
)<br />
= h(∩ ∞ n=1I s1 ...s n<br />
)<br />
= s 1 s 2 . . . = σ ◦ h(x).<br />
Zusammenfassend haben wir gezeigt:<br />
□<br />
Theorem 4.29 Sei f µ (x) = µx(1 − x) mit µ > 2 + √ 5. Dann gilt:<br />
a) Es gibt 2 n periodische Punkte der Periode n.<br />
b) Die Menge der periodischen Punkte liegt dicht in Λ.<br />
c) f µ besitzt einen dichten Orbit in Λ.<br />
Bemerkung: Der Nachweis der periodischen Punkte kann auch direkt erfolgen, denn der Graph<br />
von f n µ schneidet die Gerade y = x mindestens 2n -mal. Damit hat f n µ mindestens 2n Fixpunkte,<br />
bzw. f µ besitzt mindestens 2 n periodische Punkte der Periode n.<br />
Bemerkung: Die Konjugiertheit zur Shiftdynamik ist die strengste Definition von Chaos. Für<br />
praktische Zwecke gibt es weichere Definitionen, siehe [SU03].<br />
In zwei Raumdimensionen erfolgt der Nachweis chaotischen Verhaltens of über ein Zwischenmodell,<br />
das Smale’sche Hufeisen, siehe Abschnitt 6.2.<br />
52
Einschub: Periodenverdopplung <strong>und</strong> die Feigenbaumkaskade<br />
Für µ ≤ 3 existiert nach Lemma 4.20 als einzige periodische Lösung ein stabiler Fixpunkt. Für<br />
µ > 3 erhalten wir eine Kaskade von Periodenverdopplungen.<br />
Übung 4.30 Untersuche f µ mittels xppaut, insbesondere für µ ∈ (3, 4). Was passiert für<br />
µ > 4, was für 3.825 ≤ µ ≤ 3.86 ?<br />
Lösung. Eine Möglichkeit Übung 1.4 zu bearbeiten ist die folgende: kopiere das folgende xppaut-<br />
ODE file qf.ode<br />
2<br />
v m x<br />
# m=mu ist dummy-variable, d.h. parameter<br />
o m<br />
o m*x*(1-x)<br />
d<br />
in ein Verzeichnis <strong>und</strong> starte dort xppaut, d.h. xppaut qf.ode. Dann führe in xppaut die folgenden<br />
Schritte aus:<br />
1) unter Viewaxes wähle m ∈ [2.5, 4.5] für x-axes <strong>und</strong> x ∈ [0.1] für y-axes.<br />
2) unter Numerics, Method wähle discrete, sowie Total=200 <strong>und</strong> tRansient=150; hiermit<br />
(wie mit allem anderen) kann man spielen.<br />
3) unter Graphic stuff wähle (E)dit <strong>und</strong> dann Line type: 0.<br />
4) unter Initialconds wähle Mice <strong>und</strong> klick im Fenster rum.<br />
4b) unter Initialconds wähle New <strong>und</strong> dann x = 0.1 (z.B.). Anschließend wähle<br />
Initialconds, Range <strong>und</strong> dann m ∈ [2.5, 4.5], 200 Steps. Im Graphikfenster von xppaut sollte<br />
nun in etwa das Bild in Abb. 19 links erscheinen.<br />
x<br />
8<br />
4<br />
2<br />
1<br />
µ<br />
Abbildung 19: Die Feigenbaumkaskade f µ , numerisch <strong>und</strong> schematisch.<br />
Die numerische Simulation zeigt mit wachsendem µ eine Reihe von Periodenverdopplungen,<br />
siehe Abb.19. Die Werte µ j , bei denen diese stattfinden, häufen sich bei µ = µ ∞ . Überraschen-<br />
53
derweise gilt für großes j, daß<br />
µ ∞ − µ j ∼ Cδ −j ,<br />
wobei δ = 4.6692 . . . Feigenbaumkonstante heißt. Es zeigt sich außerdem, daß δ von der speziellen<br />
Wahl der Familie f µ unabhängig ist, d.h. wir erhalten das gleiche δ für (z.B.) f µ =µ sin(πx).<br />
Der Weg ins Chaos findet häufig in dieser universellen Art <strong>und</strong> Weise statt. Dies läßt sich analytisch<br />
erklären, siehe [SU03].<br />
Hier betrachten wir nur die ersten Periodenverdopplungen. Zunächst bemerken wir jedoch,<br />
wann keine Bifurkation stattfindet, vgl. Abb.20.<br />
Theorem 4.31 Kontinuierung von Fixpunkten. Sei f(x; µ) eine durch µ ∈ R parametrisierte<br />
Familie von differenzierbaren Funktionen mit f(x 0 ; µ 0 ) = x 0 <strong>und</strong> ∂ x f(x 0 , µ 0 ) ≠ 1. Dann<br />
existiert eine eindeutige lokale Auflösung x = x 0 (µ), d.h. es existieren Intervalle I um x 0 <strong>und</strong><br />
N um µ 0 <strong>und</strong> eine Funktion x 0 : N → I mit x 0 (µ 0 ) = x 0 <strong>und</strong> f(x 0 (µ), µ) = x 0 (µ), <strong>und</strong> f(·; µ)<br />
besitzt keine anderen Fixpunkte in I.<br />
Beweis: Übung<br />
□<br />
Wie wir bereits gesehen haben, wird der Fixpunkt p µ = µ − µ 1 bei µ=3 instabil. Da f ′ (p µ )=2−µ,<br />
ist für µ = 3 die Linearisierung durch y n+1 = −y n gegeben. Mittels des Satzes über implizite<br />
Funktionen kann durch Betrachten der Bedingung fµ(x) 2 − x = 0 nachgewiesen werden, daß<br />
eine zweiperiodische Lösung verzweigt, bzw. bifurkiert. Für theoretische Zwecke ist es häufig<br />
angenehmer statt f(x; µ) die Familie ˜f(x; µ) = f(x + x 0 (µ); µ) − x 0 (µ) zu betrachten, sodaß<br />
der Fixpunkt in 0 liegt. Dabei lassen wir die ˜ im weiteren wieder weg.<br />
Abbildung 20: Kontinuierung von Fixpunkten <strong>und</strong> Sattel–Knoten–Bifurkation.<br />
Theorem 4.32 Sattel–Knoten–Bifurkation Es sei f(0, µ 0 ) = 0, ∂ x f(0, µ 0 ) = 1, ∂ 2 x f(0, µ 0) ≠<br />
0 <strong>und</strong> ∂ µ f(0, µ 0 ) ≠ 0. Dann existiert eine Umgebung I von 0 <strong>und</strong> eine Funktion µ : I → R mit<br />
µ(0) = µ 0 , f(x, µ(x)) = x, <strong>und</strong> µ ′ (0) = 0, µ ′′ (0) = −(∂ 2 x f(0, µ 0))/(∂ µ f(0, µ 0 )).<br />
Beweis: Setze g(x, µ) = f(x, µ) − x, d.h.: g(x, µ) = 0 ⇒ f(x, µ) hat Fixpunkt x. Es gilt<br />
∂ µ g(0, µ 0 ) = ∂ µ f(0, µ 0 ) ≠ 0, <strong>und</strong> damit existiert nach dem Satz über implizite Funktionen eine<br />
eindeutige Auflösung µ(x) mit g(x, µ(x)) ≡ 0. Implizites Differenzieren liefert µ ′ (0) = 0 <strong>und</strong><br />
µ ′′ (0) = −(∂ 2 xf(0, µ 0 ))/(∂ µ f(0, µ 0 )). □<br />
54
Theorem 4.33 Perioden–Verdopplungs–Bifurkation Angenommen f(0, µ) = 0 für alle µ<br />
in einer Umgebung U von µ 0 , ∂ x f(0, µ 0 ) = −1, sowie ∂ µ ∂ x f 2 (0, µ 0 ) ≠ 0. Dann existiert<br />
eine Umgebung I von 0 <strong>und</strong> eine Funktion µ : I → R mit µ(0) = µ 0 , f(x, µ(x)) ≠ x <strong>und</strong><br />
f 2 (x, µ(x)) = x, <strong>und</strong><br />
Beweis: Setze g(x, µ) = f 2 (x, µ) − x. Der Satz über implizite Funktionen ist nicht direkt<br />
anwendbar, da ∂ µ g(0, µ) = 0. Deshalb setze<br />
h(x, µ) =<br />
{<br />
g(x, µ)/x x ≠ 0<br />
∂ x g(0, µ) x = 0 .<br />
Dann ist h glatt, h(0, µ 0 ) = 0 <strong>und</strong> ∂ µ h(0, µ 0 ) = ∂ µ ∂ x f 2 (0, µ 0 ) ≠ 0. Also existiert eine eindeutige<br />
Auflösung µ(x) mit h(x, µ(x)) ≡ 0, also insbesondere g(x, µ(x))/x = 0 für x ≠ 0. Also<br />
ist x ein 2-periodischer Punkt, <strong>und</strong> x ist kein Fixpunkt nach Satz 4.31.<br />
□<br />
Übung: Überprüfe die Voraussetzungen von Theorem 4.33 bei µ = 3.<br />
Als nächstes kann man die Stabilität der verzweigenden zweiperiodischen Lösung betrachten,<br />
d.h. die Stabilität des verzweigenden Fixpunktes von fµ 2 . Diese Vogehensweise ist im Prinzip<br />
für alle n durchführbar, liefert aber sicher keine Erklärung für die Zahl δ; siehe [SU03].<br />
4.4 Bemerkungen zu Iterationen in der komplexen Ebene<br />
In diesem Abschnitt betrachten wir Iterationen holomorpher Abbildungen der komplexen Ebene<br />
C. Wir wollen erklären in welchem Zusammenhang die bekannte Mandelbrotmenge [PR86]<br />
mit unseren bisherigen Überlegungen stehen. Als weitergehende Literatur verweisen wir auf<br />
[Dev89, CG93, Mil99].<br />
Im folgenden wollen wir uns auf die quadratische Abbildung<br />
{<br />
C → C<br />
Q c :<br />
z ↦→ z 2 + c<br />
der komplexen Ebene in sich beschränken. Diese ist mittels einer linearen Transformation<br />
h(x) = αx + β konjugiert zur bisher betrachteten Abbildung f µ (x) = µx(1 − x). Dabei ist<br />
β = 1/2 <strong>und</strong> αµ = −1. Zwischen c < 1/4 <strong>und</strong> µ > 1 besteht die Beziehung<br />
Die Mandelbrotmenge ist durch<br />
c = 1 2 µ − 1 4 µ2 .<br />
M = {c ∈ C | (z n ) n∈N bleibt beschränkt, wobei z n+1 = z 2 n + c, z 0 = 0} (11)<br />
55
definiert. Wir wollen einige elementare Eigenschaften von M beschreiben, siehe Abb.21. 5 Das<br />
Betrachten verschiedener (reller) Werte von c entspricht dem Betrachten von f µ für verschiedene<br />
Werte von µ. Der Wert µ ist in der Mandelbrotmenge, wenn die Folge zum Startwert<br />
x = 1/2 = h(0) beschränkt bleibt. Dies ist unter anderem dann der Fall, wenn ein stabiler<br />
Fixpunkt oder allgemein eine stabile n-periodische Lösung vorhanden ist. Deshalb suchen wir<br />
zunächst die Werte der Abbildung Q c (z) = z 2 + c, für welche ein stabiler Fixpunkt z 0 ∈ C<br />
vorhanden ist. Die Fixpunktbedingung liefert z 2 0 − z 0 + c = 0. Die Stabilitätsbedingung liefert<br />
|Q ′ c(z 0 )| = |2z 0 | ≤ 1. Aus letzterem schließen wir z 0 = re iφ mit φ ∈ R <strong>und</strong> r ∈ [0, 1/2]. Aus<br />
der Fixpunktbedingung ergibt sich dann, daß für alle c aus<br />
M 1 = {c = re iφ − r 2 e 2iφ | φ ∈ R, r ∈ [0, 1/2)}<br />
ein stabiler Fixpunkt existiert. Die Menge M 1 ist das Innere einer Kardiode (einer Herzkurve),<br />
deren Rand durch<br />
c = 1 4 − 1 4 (1 − eiφ ) 2 , (φ ∈ S 1 )<br />
gegeben ist, <strong>und</strong> stellt den Rumpf des Apfelmännchens dar.<br />
Wandern wir entlang der reellen Achse, so erreichen wir den Randpunkt von M 1 in welchem<br />
der Fixpunkt instabil wird <strong>und</strong> eine stabile zweiperiodische Lösung auftritt. Wir vermuten daher,<br />
daß die folgende Kugel, der Bereich ist, indem eine stabile zweiperiodische Lösung auftritt. Die<br />
Fixpunktbedingung ist<br />
Q 2 c (z) − z = (z2 + c) 2 + c − z = z 4 + 2cz 2 − z + (c 2 + c)<br />
= (z 2 − z + c)(z 2 + z + c + 1) = 0,<br />
da der Fixpunkt gleichzeitig eine zweiperiodische Lösung ist. Die Stabilitätsbedingung liefert<br />
|(Q 2 ) ′ (z)| = |4z 3 + 4cz| = |4z(z 2 + c + z − z + 1 − 1)|<br />
= | − 4z(z + 1)| = 4|c + 1|,<br />
d.h. für |c + 1| < 1/4 existiert eine stabile zweiperiodische Lösung. Entsprechend gehören die<br />
für c ∈ R bis c ∞ = c(µ ∞ ) auftretenden Mengen zu 2 l -periodischen Lösungen. Wie wir gesehen<br />
haben existieren weiter sogenannte periodische Fenster im chaotischen Bereich, z.B. eine 3–<br />
periodische Lösung für µ ∈ (µ a , µ b ) mit µ a ≈ 3.83, µ b ≈ 3.84, die wieder mit Perioden–<br />
verdopplungen instabil werden. In den entsprechenden c–Bereichen treten dann kleine Kopien<br />
des Rumpfes auf. Dies ist (u.a.) ein Gr<strong>und</strong> für die selbstähnliche Struktur der Mandelbrotmenge.<br />
Wir wollen schließlich überlegen, zu welchen Perioden die anderen Auswüchse am Rumpf M 1<br />
des Apfelmännchens gehören. Nach den obigen Berechnungen besitzt der Fixpunkt z 0 zu einem<br />
c auf dem Rand die Linearisierung F ′ (z 0 ) = 2z 0 = e iφ . Das linearisierte System<br />
y n+1 = e iφ y n<br />
5 zum eigenen graphischen Entdecken von M sei z.B. das Programm xfractint empfohlen<br />
56
esitzt n-periodische Lösungen y n = e inφ y 0 , wenn nφ ein Vielfaches von 2π ist, vgl. Satz 4.33.<br />
Damit treten in den Auswüchsen von M 1 drei-, vier-, fünf- usw. periodische Lösungen auf.<br />
Die Mandelbrotmenge besitzt eine Vielzahl erstaunlicher Eigenschaften <strong>und</strong> parametrisiert u.a. die<br />
Menge der Julia-Menge, siehe [SU03].<br />
Abbildung 21: Perioden <strong>und</strong> die Feigenbaumkaskade in der Mandelbrotmenge.<br />
4.5 Periodische Lösungen<br />
In diesem Abschnitt interessieren wir uns für die Stabilität echt periodischer Lösungen x = x(t)<br />
mit x(t) = x(t + T ) für ein T > 0 <strong>und</strong> alle t ∈ R bei autonomen Gewöhnlichen <strong>Differentialgleichungen</strong><br />
ẋ = f(x).<br />
Zunächst stellen wir fest.<br />
Lemma 4.34 Die Linearisierung um eine periodische Lösung einer autonomen Differentialgleichung<br />
besitzt stets den Floquetmultiplikator 1.<br />
Beweis: Sei x = x per (t) eine periodische Lösung, d.h. es gilt ẋ per (t) = f(x per (t)). Differenzieren<br />
wir diese Gleichung nach der Zeit, so erhalten wir für die Zeitableitung y(t) = ẋ per (t) die<br />
57
Differentialgleichung ẏ(t) = A(t)y(t) mit A(t) = ∂f | ∂x x=x per(t). Die Floquetmultiplikatoren sind<br />
durch die Eigenwerte des für t = T ausgewerteten linearen Evolutionsoperators S(t, 0) dieser<br />
periodischen Gleichung gegeben. Da y(t) = ẋ per (t) diese Gleichung löst, wird y(0) durch<br />
S(T, 0) in sich abgebildet, womit S(T, 0) den Eigenwert 1 besitzt.<br />
□<br />
Damit ist wie bereits erwähnt der obige Satz über die Stabilität von periodischen Lösungen hier<br />
nicht anwendbar. Deshalb gehen wir wie folgt vor.<br />
Es sei x(t) = x per (t) eine T -periodische Lösung der obigen Differentialgleichung. Dazu wählen<br />
wir eine (d − 1)-dimensionale Hyperebene H (den Poincaré-Schnitt) transversal zu dieser periodischen<br />
Lösung in einem Punkt x 0 . Aus Stetigkeitsgründen gibt es eine ganze Umgebung<br />
U ⊂ H um x 0 , aus der startende Lösungen die Hyperebene, aus der gleichen Richtung in der<br />
Nähe von x 0 , erneut durchstoßen. Siehe Abbildung 22.<br />
Der so zu x 1 ∈ U gehörende Durchstoßpunkt werden mit ˜x 1 ∈ H bezeichnet. Wir definieren<br />
x1<br />
x 0<br />
∼<br />
x 1<br />
H<br />
dann die sogenannte Poincaré-Abbildung<br />
{<br />
Abbildung 22: Konstruktion der Poincaré-Abbildung.<br />
Π :<br />
U → H<br />
Π(x 1 ) = ˜x 1<br />
.<br />
Offensichtlich ist x 0 ein Fixpunkt der Poincaré-Abbildung, d.h. Π(x 0 ) = x 0 . Weiter reicht es eine<br />
Poincaré-Abbildung zu betrachten, da Poincaré-Abbildungen Π j zu verschiedenen Poincaré-<br />
Schnitten durch feste Koordinatentransformationen S in einander übergehen, genauer Π 1 =<br />
S −1 ◦ Π 2 ◦ S. Damit gilt folglich auch Π n 1 = S −1 ◦ Π n 2 ◦ S, womit die folgende Definition Sinn<br />
macht.<br />
Definition 4.35 Es sei x(t) = x per (t) eine T -periodische Lösung der autonomen Differentialgleichung<br />
ẋ = f(x), <strong>und</strong> es sei Π : U → H die dazugehörige Poincaré-Abbildung durch x 0 .<br />
i) Die periodische Lösung heißt stabil, wenn es für alle ɛ > 0 ein δ > 0 gibt, so dass ‖Π n (x 1 ) −<br />
x 0 ‖ ≤ ɛ für alle n ∈ N aus ‖x 1 − x 0 ‖ ≤ δ mit x 1 ∈ H folgt.<br />
58
ii) Die periodische Lösung heißt instabil, falls dies nicht gilt.<br />
iii) Die periodische Lösung heißt asymptotisch stabil, falls zusätzlich lim n→∞ Π n (x 1 ) = x 0 gilt.<br />
Im folgenden unterscheiden wir nicht zwischen x ∈ H <strong>und</strong> x ∈ R d . Eine äquivalente Definition<br />
ist wie folgt.<br />
Definition 4.36 Es sei x(t) = x per (t) eine T -periodische Lösung der autonomen Differentialgleichung<br />
ẋ = f(x). Dann heißt die einparametrige Familie<br />
Γ = {x = x per (t + γ) | γ ∈ R}<br />
i) orbital stabil, wenn es für alle ɛ > 0 ein δ > 0 gibt, so dass inf γ∈R ‖x(t, x 1 ) − x per (γ)‖ ≤ ɛ<br />
für alle t ∈ R aus inf γ∈R ‖x 1 − x per (γ)‖ ≤ δ folgt.<br />
ii) orbital instabil, falls dies nicht gilt.<br />
iii) orbital stabil mit asymptotischer Phase γ 0 , falls es ein γ 0 ∈ R, mit<br />
gibt.<br />
lim ‖x(t, x 1) − x per (t + γ 0 )‖ = 0<br />
t→∞<br />
Wir betrachten zunächst zwei Beispiele.<br />
Beispiel 4.37 Es sei x = x per (t) eine periodische Lösung beim mathematischen Pendel<br />
ẋ 1 = x 2 , ẋ 2 = − sin x 1 .<br />
Wir wählen als Poincaré-Schnitt H die x 1 -Achse. Offensichtlich ist Π = I. Damit ist die periodische<br />
Lösung im Sinne der obigen Definition stabil. Da benachbarte periodische Lösungen<br />
aber verschiedene Umlaufzeiten besitzen, sind die periodischen Lösungen aber instabil im Sinne<br />
von Kapitel 4.1, d.h. y = 0 ist instabil in ẏ = A(t)y + O(|y| 2 ) mit A = ∂f<br />
∂x | x=x per(t) .<br />
Beispiel 4.38 Wir betrachten in Polarkoordinaten das ebene System<br />
ṙ = r − r 3 , ˙φ = 1.<br />
Um die Stabilität der periodischen Lösung r = 1 zu untersuchen , wählen wir erneut die<br />
x 1 -Achse als Poincaré-Schnitt H. Offensichtlich ist der Punkt x 1 attraktiv unter der Poincaré-<br />
Abbildung Π <strong>und</strong> damit ist die periodische Lösung r = 1 asymptotisch stabil.<br />
Es gilt wie im kontinuierlichen Fall folgender Stabilitätssatz.<br />
Theorem 4.39 Es sei x(t) = x per (t) eine T -periodische Lösung der autonomen Differentialgleichung<br />
ẋ = f(x) mit f ∈ C 1 (R d , R d ). Weiter sei Π : U → H die dazugehörige Poincaré-<br />
Abbildung durch x 0 . Erfüllen die d − 1 verallgemeinerten Eigenwerte µ der Linearisierung DΠ<br />
die Eigenschaft |µ| < 1, so ist die periodische Lösung asymptotisch stabil. Genauer, es gibt<br />
Konstanten C ≥ 1 <strong>und</strong> κ ∈ (0, 1), so dass<br />
‖Π n (x 1 ) − x 0 ‖ ≤ Cκ n ‖x 1 − x 0 ‖.<br />
59
Beweis: Wir setzen x = x 0 + y ∈ H. Dann gilt y n+1 = DΠy n + g(y n ) mit g(y n ) = o(‖y n ‖).<br />
Nach Voraussetzung gibt es ein µ 0 ∈ (0, 1) <strong>und</strong> eine Norm ‖ · ‖, so dass ‖DΠy n ‖ ≤ µ 0 ‖y n ‖.<br />
Die Existenz dieser Norm sei aus Numerik bekannt. Weiter gibt es für alle b > 0 ein δ 1 > 0, so<br />
dass ‖g(y)‖ ≤ b‖y‖ aus ‖y‖ ≤ δ 1 folgt. Wähle nun b so dass µ 0 + b = κ ∈ (0, 1) ist. Damit gilt<br />
‖y n+1 ‖ ≤ µ 0 ‖y n ‖ + b‖y n ‖ ≤ κ‖y n ‖<br />
<strong>und</strong> somit ‖y n ‖ ≤ κ n ‖y 0 ‖ → 0 für n → ∞. Da alle endlich- dimensionalen Normen äquivalent<br />
sind, folgt die Behauptung.<br />
□<br />
Korollar 4.40 Unter den Voraussetzungen dieses Satzes ist die periodische Lösung orbital stabil<br />
mit asymptotischer Phase.<br />
Beweis: Der Beweis folgt im nächsten Kapitel als direkte Konsequenz des Zentrumsmannigfaltigkeitensatzes.<br />
□<br />
Wie im letzten Kapitel überträgt sich die Instabilität vom linearisierten System auf das nichtlineare<br />
System. Analog zum dortigen Beweis folgt.<br />
Theorem 4.41 Es sei x(t) = x per (t) eine T -periodische Lösung der autonomen Differentialgleichung<br />
ẋ = f(x) mit f ∈ C 1 (R d , R d ). Weiter sei Π : U → H die dazugehörige Poincaré-<br />
Abbildung durch x 0 . Gibt es einen Eigenwert µ der Linearisierung DΠ mit der Eigenschaft<br />
|µ| > 1, so ist die periodische Lösung instabil.<br />
Beweis: ohne Beweis<br />
Vollständigkeitshalber bemerken wir noch, dass die d − 1 Eigenwerte der Abbildung DΠ vereinigt<br />
mit {1} mit den d Floquetmultiplikatoren der Linearisierung ẏ = ∂f | ∂x x=x per<br />
y zusammenfallen.<br />
Wie oben wollen wir nun der Frage nach gehen, was passiert wenn eine periodische Lösung<br />
instabil wird.<br />
Beispiel 4.42 (transkritische Bifurkation von periodischen Lösungen) Wir betrachten eine eindimensionale<br />
Poincaré-Abbildung Π µ : R → R mit Π µ (x) = µx − x 2 . Für alle µ ∈ R<br />
besitzt diese Abbildung den Fixpunkt x = 0, welcher einer periodischen Lösung der dazugehörigen<br />
zweidimensionalen gewöhnlichen Differentialgleichung entspricht. Die Linearisierung<br />
DΠ µ y = µy um x = 0 besitzt den Eigenwert µ, d.h. x = 0 wird instabil für µ = 1.<br />
Der Wert µ = −1 ist bei zweidimensionalen gewöhnlichen <strong>Differentialgleichungen</strong> wegen des<br />
Jordanschen Kurvensatzes nicht möglich. Wir führen den Bifurkationsparameter α = µ − 1<br />
ein <strong>und</strong> erhalten aus der Fixpunktbedingung Π µ (x) = x, dass x = (1 + α)x − x 2 <strong>und</strong> so den<br />
zweiten Fixpunkt x = α. Es findet daher eine transkritische Bifurkation von Fixpunkten der<br />
Poincaré-Abbildung <strong>und</strong> somit eine transkritische Bifurkation von periodischen Lösungen der<br />
gewöhnlichen <strong>Differentialgleichungen</strong> statt.<br />
□<br />
60
Beispiel 4.43 (Pitchfork-Bifurkation von periodischen Lösungen) Wir betrachten eine eindimensionale<br />
Poincaré-Abbildung Π µ : R → R mit Π µ (x) = µx − x 3 . Hier führen wir den Bifurkationsparameter<br />
α 2 = µ − 1 ein <strong>und</strong> erhalten aus der Fixpunktbedingung Π µ (x) = x, dass<br />
x = (1 + α 2 )x − x 3 <strong>und</strong> so zwei weitere Fixpunkte x 2,3 = ±α. Es findet daher eine Pitchfork-<br />
Bifurkation von Fixpunkten der Poincaré-Abbildung <strong>und</strong> somit eine Pitchfork-Bifurkation von<br />
periodischen Lösungen der gewöhnlichen <strong>Differentialgleichungen</strong> statt.<br />
Neben der Sattel-Knoten-Bifurkation von Fixpunkten können bei eindimensionalen Abbildungen<br />
auch noch 2-periodische Lösungen verzweigen.<br />
Beispiel 4.44 (Periodenverdopplung) Wir betrachten erneut die eindimensionale Abbildung<br />
Π µ (x) = µx − x 2 , aber nun mit µ in der Nähe von −1. Wird der Fixpunkt x = 0 für µ = −1<br />
instabil, so liefert die Fixpunktbedingung x = −x − x 2 . Offensichtlich besitzt diese Gleichung<br />
für kleines |µ + 1| in der Nähe von x = 0 keinen weiteren Fixpunkt. Da die Linearisierung<br />
DΠy = −y für µ = −1 sogenannte 2-periodische Lösungen, d.h. (DΠ) 2 x = x, besitzt, untersuchen<br />
wir<br />
Π 2 µ(x) = µ(µx − x 2 ) − (µx − x 2 ) 2 .<br />
Wir führen den Bifurkationsparameter µ = −(1 + α) ein <strong>und</strong> erhalten<br />
Π 2 −(1+α) (x) = x(1 + 2α + αx − 2x2 + O(|x|(|α 2 | + |αx 2 | + |x 3 |)) = x<br />
Die Fixpunktbedingung kann durch x durchdvidiert werden <strong>und</strong> auf beiden Seiten kann die 1<br />
gekürzt werden. Mit den Skalierungen α = β 2 <strong>und</strong> x = βy liefert dies die Fixpunktbedingung<br />
β −3 (Π 2 −1+β 2(βy) − βy) = 2y − 2y3 + O(|β|)<br />
<strong>und</strong> so erhalten wir mit dem Satz über implizite Funktionen zwei nichttriviale Lösungen y 2,3 =<br />
±1 + O(β). Damit verzweigen zwei nichttriviale Fixpunkte x 2,3 (1 + β 2 ) = ±β + O(β 2 ) für Π 2 µ<br />
aus der trivialen Lösung x = 0. Dem entspricht eine zweiperiodische Lösung der Abbildung<br />
Π. Bei einer Gewöhnlichen Differentialgleichung entsprcht diese Bifurkation einer Periodenverdopplung<br />
einer periodischen Lösung. Siehe Abbildung 23.<br />
Beispiel 4.45 Die Differentialgleichung von Rössler<br />
⎛ ⎞ ⎛<br />
⎞<br />
x −(y + z)<br />
d<br />
⎜<br />
dt ⎝ y ⎟<br />
⎠ = ⎜<br />
⎝ x + 1y<br />
⎟<br />
5 ⎠ .<br />
1<br />
z + z(x − a) 5<br />
ist ein Beispiel für ein System, wo sukzessive Periodenverdopplungen letztendlich zu chaotischem<br />
Verhalten führen. Dabei ist a ein reller Parameter. Ausgehend von einem attraktiven<br />
periodischen Orbit für a = 2.2 finden durch Erhöhung von a Periodenverdopplungen statt, bis<br />
bei a > 4.3 bereits ein strange attractor vorliegt.<br />
61
T-periodisch<br />
20<br />
10<br />
0<br />
2 T-periodisch<br />
-5<br />
0<br />
5<br />
-5<br />
10 -10<br />
0<br />
5<br />
Abbildung 23: Periodenverdopplung einer periodischen Lösung <strong>und</strong> der Rössler Attraktor.<br />
Der Attraktor kann in MAPLE mittels folgender Befehle gezeichnet werden.<br />
restart:with(plots):<br />
sys:=diff(x(t),t)+y(t)+z(t),diff(y(t),t)-x(t)-0.17*y(t),<br />
diff(z(t),t)-0.4-x(t)*z(t)+8.5*z(t),x(0.)=1.0,y(0.)=0.,z(0.)=0.;<br />
fcn:=x(t),y(t),z(t);<br />
sol:=dsolve(sys,fcn,type=numeric,method=rkf45);<br />
odeplot(sol, [y(t),x(t),z(t)],0..200,numpoints=6000, axes=boxed, color=red);<br />
Beispiel 4.46 (Bifurkation quasiperiodischer Lösungen, invariante Tori) Der Einfachheit halber<br />
betrachten wir hier lineare zweidimensionale Abbildungen Π : R 2 → R 2 . Instabilitäten<br />
des Fixpunktes x = 0 im Falle, dass ein reeller Eigenwert den Einheitskreis überquert, haben<br />
wir oben behandelt. Wir interessieren uns nun für den Fall, dass ein Paar konjugiert komplexer<br />
Eigenwerte e ±2πiν den Einheitskreis überquert. Wir unterscheiden zwei Fälle i) ν ∈ Q <strong>und</strong> ii)<br />
ν ∈ R/Q. Im Fall ν = p/q ∈ Q, ggT(p, q) = 1, erhalten wir eine q-periodische Lösung.<br />
Ist ν ∈ R/Q, so liegt der Orbit oder die Trajektorie der Lösung dicht auf dem Einheitskreis.<br />
In der Gewöhnlichen Differentialgleichung entspricht dieser Verzweigung eine Verzweigung<br />
quasiperiodischer Lösungen. Eine Funktion x(t) heißt quasiperiodisch, falls es eine Funktion<br />
g : T n → R, mit T n der n-dimensionale Torus, gibt, so dass x(t) = g(ω 1 t, ω 2 t, . . . , ω n t) mit<br />
ω i /ω j ∉ Q für mindestens ein Paar i ≠ j.<br />
Die tatsächliche Verzweigung solcher Lösungen ist eine höchst delikate Angelegenheit. Siehe<br />
auch KAM Tori <strong>und</strong> Arnold-Zungen.<br />
Früher hat man angenommen, dass Turbulenz bzw. chaotisches Verhalten durch fortgesetzte<br />
Bifurkationen dieser Art zustande kommen (Landau-Sequenz). Diese Theorie wurde durch die<br />
Arbeit [RT71] wiederlegt, welche zeigt, dass schon die nächste Verzweigung zu chaotischem<br />
Verhalten führen kann.<br />
62
5 Dynamik in der Nähe eines Fixpunktes<br />
In diesem Kapitel wollen wir Methoden bereit stellen, die es erlauben die Dynamik in der<br />
Nähe eines Fixpunktes oder einer periodischen Lösung, d.h. in der Nähe eines Fixpunktes der<br />
Poincaré-Abbildung zu klassifizieren, insbesondere wollen wir das Verzweigungsverhalten bei<br />
Eintreten von Instabilität auch in höheren Raumdimensionen untersuchen.<br />
5.1 Der Satz von Hartman-Grobman<br />
Der Satz von Hartman-Grobman macht eine Aussage über die Dynamik in der Nähe von hyperbolischen<br />
Punkten (,d.h. keine Eigenwerte auf der imaginären Achse) in höheren Raumdimensionen.<br />
Wie im zweidimensionalen Fall sehen in einer Umgebung des Fixpunktes das<br />
Phasenbild des nichtlinearen Systems <strong>und</strong> des linearen Systems qualitativ gleich aus.<br />
Theorem 5.1 Sei x 0 ein Fixpunkt der autonomen Differentialgleichung ẋ = f(x) mit f ∈<br />
C 1 (R d , R d ). Den dazugehörigen nichtlinearen Lösungsoperator (den Fluß) bezeichnen wir mit<br />
Φ(t, ·). Besitzt A = ∂f | ∂x x=x 0<br />
keine rein imaginären Eigenwerte, dann gibt es einen in einer<br />
Umgebung U von x 0 definierten Homöomorphismus h, welcher die Lösungskurven (die Orbits,<br />
die Trajektorien) des nichtlinearen Flußes Φ(t, ·) in die des linearen Flußes e At überführt, d.h.<br />
die Flüße sind konjugiert h ◦ Φ(t, ·) = e At ◦ h(·).<br />
Beweis: Der Beweis geht analog zum diskreten Fall. Siehe unten.<br />
Dies bedeutet, dass ẋ = f(x), x| t=0 = x 0 wie folgt gelöst werden kann. Wir lösen ẏ = Ay mit<br />
der Anfangsbedingung y 0 = h(x 0 ) <strong>und</strong> erhalten y(t, y 0 ) = e At y 0 als Lösung. Die Lösung der<br />
ursprünglichen Gleichung ist dann durch x(t, x 0 ) = h −1 (y(t, h(x 0 )) gegeben.<br />
Bemerkung 5.2 Wir sehen später bei der Untersuchung von sogenannten Normalformen, dass<br />
die Differenzierbarkeit von h nur unter zusätzlichen Nichtresonanzbedingungen an die Eigenwerte<br />
gefolgert werden kann.<br />
Beispiel 5.3 Wir vergleichen die Lösungen des nichtlinearen Systems<br />
mit denen des linearisierten Systems<br />
ẋ 1 = x 1 + O(x 2 1 + x2 2 ), ẋ 2 = −x 2 + O(x 2 1 + x2 2 )<br />
ẏ 1 = y 1 , ẏ 2 = −y 2 .<br />
Wir definieren h dann so, dass wir einander entsprechende Orbits <strong>und</strong> damit auch die daraufliegenden<br />
Punkte zuordnen.<br />
Beispiel 5.4 Wir vergleichen die Lösungen des nichtlinearen Systems ẋ = −x 3 mit denen des<br />
linearisierten Systems ẏ = 0. Offensichtlich sind die Flüße nicht zueinander konjugiert. Wären<br />
beide Füsse miteinander konjugiert, so könnte man ẋ = −x 3 , x| t=0 = x 0 dadurch lösen, dass<br />
63<br />
□
wir ẏ = 0 mit der Anfangsedingung y 0 = h(x 0 ) lösen. Die Lösung der letzten Gleichung ist<br />
durch y(t, y 0 ) = y 0 gegeben. Eine Rücktransformation ergibt dann<br />
was offensichtlich falsch ist.<br />
x(t, x 0 ) = h −1 y(t, y 0 ) = h −1 (y 0 ) = x 0 ,<br />
Der Satz von Hartman-Grobman gilt auch im diskreten Fall, d.h. bei der zu periodischen Lösungen<br />
gehörenden Poincaré-Abbildung. Er lautet:<br />
Theorem 5.5 Sei x 0 ein Fixpunkt der Abbildung Π ∈ C 1 (U, R d ). Besitzt L = DΠ| x=x0 keine<br />
Eigenwerte auf dem Einheitskreis <strong>und</strong> ist L invertierbar, dann gibt es einen in einer Umgebung<br />
U von x 0 definierten Homöomorphismus h, welcher die Lösungskurven (die Orbits, die Trajektorien)<br />
des nichtlinearen Flußes Π n (·) in die des linearen Flußes L n· überführt, d.h. die Flüße<br />
sind konjugiert h ◦ Π(·) = DΠ ◦ h.<br />
Beweis: Es sei x 0 = 0. Dann ist Π(x) = Lx + f(x) mit f(x) = o(x). Da uns Π nur in der<br />
Nähe von x = 0 interessiert, können wir daher sup x∈R ‖Df(x)‖ ≤ µ 0 mit µ 0 = o(1) für x → 0<br />
voraussetzen.<br />
Die Linearisierung L zerfällt in einen stabilen Teil L s zu den Eigenwerten innerhalb des Einheitskreises<br />
<strong>und</strong> in einen instabilen Teil L u zu den Eigenwerten außerhalb des Einheitskreises.<br />
Wegen der Hyperbolizitätsvoraussetzung an L können wir die Norm in R d so wählen, dass<br />
‖L s ‖ ≤ a <strong>und</strong> ‖L −1<br />
u ‖ ≤ a, mit a < 1.<br />
Den Homöomorphismus h schreiben wir in der Form h(x) = x + g(x), bzw. h = I + g. Damit<br />
ergeben sich die Gleichungen<br />
g = L ◦ g ◦ (L + f) −1 + L ◦ (L + f) −1 − I<br />
g = L −1 ◦ g ◦ (L + f) + L −1 ◦ (L + f) − I<br />
Daraus konstruieren wir eine Abbildung T (g, f) = T s (g, f) + T u (g, f) durch<br />
T s (g, f) = L s ◦ g ◦ (L + f) −1 + L s ◦ (L + f) −1 − I s<br />
T u (g, f) = L −1<br />
u<br />
◦ g ◦ (L + f) + L−1 u ◦ (L + f) − I u<br />
Der Ausdruck (L + f) −1 existiert, da f ∈ C 1 b mit ‖Df‖ C 0 = sup x∈R ‖(Df)(x)‖ ≤ µ 0 mit µ 0<br />
hinreichend klein ist. Denn Lx+f(x) = y läßt sich über die Iteration x n+1 = L −1 y−L −1 f(x n )<br />
lösen. Die Matrix L −1 existiert nach Voraussetzung. Da die rechte Seite, für µ 0 hinreichend<br />
klein, eine Lipschitzkonstante kleiner als 1 hat, ist die Iteration eine Kontraktion <strong>und</strong> besitzt<br />
somit einen Fixpunkt x = x(y, f) = L −1 y + O(‖Df‖ C 0<br />
b<br />
). Es gibt daher ein k > 0, so dass<br />
‖L ◦ (L + f) −1 − I‖ C 0<br />
b<br />
≤ k‖Df‖ C 0<br />
b<br />
<strong>und</strong> ‖L −1 ◦ (L + f) − I‖ C 0<br />
b<br />
≤ k‖Df‖ C 0<br />
b<br />
.<br />
Die Funktion T (g, f) erfüllt daher<br />
‖T (g, f)‖ C 0<br />
b<br />
≤ a‖g‖ C 0<br />
b<br />
+ k‖Df‖ C 0<br />
b<br />
64
<strong>und</strong><br />
Damit ist T (·, f) : Cb 0 → Cb 0<br />
g = g(f).<br />
‖T (g 1 , f) − T (g 2 , f)‖ C 0<br />
b<br />
≤ a‖g 1 − g 2 ‖ C 0<br />
b<br />
.<br />
eine Kontraktion <strong>und</strong> es existiert ein eindeutiger Fixpunkt<br />
Um zu zeigen, dass h ein Homöomorphismus ist, wiederholen wir dieses Argument für ˜h<br />
aus Π ◦ ˜h(·) = ˜h ◦ DΠ·. Nach Konstruktion ergibt sich dann h ◦ ˜h = I, womit h ein ein<br />
Homöomorphismus ist.<br />
□<br />
5.2 Stabile, Instabile Mannigfaltigkeiten<br />
Wieder sei x 0 ∈ R d ein Fixpunkt der autonomen Differentialgleichung ẋ = f(x) mit f ∈<br />
C m (R d , R d ). Für das linearisierte System ẏ = Ay = ∂f | ∂x x=x 0<br />
y definierten wir mit dem stabilen,<br />
dem instabilen <strong>und</strong> dem zentralen Unterraum E s , E u <strong>und</strong> E c unter e At invariante Unterräume.<br />
Dieser über die verallgemeinerten Eigenräume definierten Räume bleiben im nichtlineren Fall<br />
als invariante Mannigfaltigkeiten erhalten. Die stabile <strong>und</strong> instabile Mannigfaltigkeit eines Fixpunktes<br />
sind für das globale Verhalten von Gewöhnlichen <strong>Differentialgleichungen</strong> sehr wichtig,<br />
da sie die verbindenden Orbits von Fixpunkten enthalten. Der Einfachheit halber betrachten wir<br />
zunächst nur <strong>Differentialgleichungen</strong> mit der Eigenschaft, dass A = Df| x=x0 keine Eigenwerte<br />
auf der imaginären Achse besitzt.<br />
Definition 5.6 Wir definieren die lokale stabile <strong>und</strong> instabile Mannigfaltigkeit W s,loc <strong>und</strong> W u,loc<br />
eines Fixpunktes x 0 durch<br />
<strong>und</strong><br />
W s,loc = {¯x ∈ U | Es gibt C, β > 0, so dass ‖x(t, ¯x)‖ ≤ Ce −βt für t ≥ 0}<br />
W u,loc = {¯x ∈ U | Es gibt C, β > 0, so dass ‖x(t, ¯x)‖ ≤ Ce −β|t| für t ≤ 0}<br />
wobei U ⊂ R d eine Umgebung von x 0 ist.<br />
Beispiel 5.7 Für lineare autonome <strong>Differentialgleichungen</strong> ẋ = Ax ist die lokale stabile Mannigfaltigkeit<br />
W s,loc durch den stabilen Unterraum E s gegeben <strong>und</strong> die lokale instabile Mannigfaltigkeit<br />
W u,loc durch den instabilen Unterraum E u gegeben.<br />
Der folgende Satz zeigt, dass für nichtlineare <strong>Systeme</strong> E s <strong>und</strong> W s,loc <strong>und</strong> entsprechend die<br />
instabilen Räume zueinander tangential sind.<br />
Theorem 5.8 Es existieren lokale stabile <strong>und</strong> instabile Mannigfaltigkeiten W s,loc <strong>und</strong> W u,loc mit<br />
der Dimension der entsprechenden stabilen <strong>und</strong> instabilen Unteräume E s <strong>und</strong> E u . Die Mannigfaltigkeiten<br />
sind tangential an die Unterräume <strong>und</strong> sind so oft differenzierbar wie f.<br />
Beweis: Der Beweis geht analog zum später folgenden Existenzsatz für Zentrumsmannigfaltigkeiten.<br />
Er folgt durch ein Fixpunktargument in einem zeitlich exponentiell gewichteten Raum.<br />
□<br />
65
Bemerkung 5.9 Entsprechend kann für diskrete dynamische <strong>Systeme</strong> x n+1 = Π(x n ) durch<br />
<strong>und</strong><br />
W s,loc = {¯x ∈ U | Es gibt C ≥ 1, β ∈ (0, 1), so dass ‖Π n (¯x)‖ ≤ Cβ n für n ≥ 0}<br />
W u,loc = {¯x ∈ U | Es gibt C ≥ 1, β ∈ (0, 1), so dass ‖Π n (¯x)‖ ≤ Cβ |n| für n ≤ 0}<br />
eine lokale stabile <strong>und</strong> instabile Mannigfaltigkeit definiert werden.<br />
Die oben definierten Mannigfaltigkeiten können (hier im kontinuierlichen Fall) durch<br />
W s = ⋃ ⋃<br />
x(t, W s,loc ) = {x(t, ¯x)}<br />
t≤0 t≤0,¯x∈W s,loc<br />
<strong>und</strong><br />
W u = ⋃ t≥0<br />
x(t, W u,loc ) =<br />
⋃<br />
t≥0,¯x∈W u,loc<br />
{x(t, ¯x)}<br />
global fortgesetzt werden. Wegen der lokalen Existenz <strong>und</strong> Eindeutigkeit von Lösungen können<br />
sich die stabilen Mannigfaltigkeiten zu verschiedenen Fixpunkten nicht schneiden. Entsprechendes<br />
gilt für die instabilen Mannigfaltigkeiten. Der Schnitt stabiler <strong>und</strong> instabiler Mannigfaltigkeiten<br />
ist möglich <strong>und</strong> kann die Ursache chaotischer Dynamik sein.<br />
Wir betrachten nun verschiedene Beispiele.<br />
Beispiel 5.10 Wir betrachten erneut das mathematische Pendel<br />
ẋ 1 = x 2 , ẋ 2 = −αx 2 − sin(x 1 ).<br />
Wir betrachten zunächst den Fall α = 0. Die eindimensionale instabile Mannigfaltigkeit von<br />
(−π, 0) schneidet die eindimensionale stabile Mannigfaltigkeit von (π, 0). Sie sind identisch.<br />
Für α ≠ 0 liegt kein Schnitt vor. Im allgemeinen schneiden sich zwei eindimensionale Mannigfaltigkeiten<br />
im R 2 nicht. Um zu einem Schnitt zu gelangen, benötigen wir einen freien Parameter,<br />
hier α.<br />
Beispiel 5.11 Wir betrachten die Differentialgleichung<br />
ẋ = x, ẏ = −y + x 2 ,<br />
welche den einzigen Fixpunkt (0, 0) besitzt. Für das linearisierte System<br />
erhalten wir die invarianten Unterräume<br />
ẋ = x, ẏ = −y<br />
E s = {(x, y) ∈ R 2 | x = 0} <strong>und</strong> E u = {(x, y) ∈ R 2 | y = 0}.<br />
66
Offensichtlich ist W s = E s . Für die Berechnung von W u gehen wir wie folgt vor. Mit dy = dy dt<br />
dx dt dx<br />
ergibt sich für die Lösungskurven y = y(x) die Differentialgleichung<br />
Die Lösungen sind durch<br />
dy<br />
dx = −y<br />
x + x<br />
y(x) = x2<br />
3 + c x<br />
gegeben. Die instabile Mannigfaltigkeit kann durch einen Graphen y = h(x) dargestellt werden.<br />
Nach obigen Satz muß dieser h(0) = h ′ (0) = 0 erfüllen. Damit ergibt sich c = 0 <strong>und</strong><br />
W u = {(x, y) ∈ R 2 | y = x 2 /3}.<br />
Beispiel 5.12 Wir betrachten die zweidimensionale Abbildung<br />
( ) ( ) ( )<br />
x 1 1 x<br />
Π =<br />
y 1 2 y<br />
auf dem Torus T 2 = R 2 /Z 2 . Der Punkt (0, 0) ist ein Fixpunkt. Das lineare System besitzt<br />
die Eigenvektoren (1, (1 ± √ 5)/2) T mit den dazugehörigen Eigenwerten (3 ± √ 5)/2. Es ist<br />
W s = E s = span{(1, (1 − √ 5)/2) T } <strong>und</strong> W u = E u = span{(1, (1 + √ 5)/2) T }. Diese<br />
Mannigfaltigkeiten können fortgesetzt werden. Da die Steigungen irrational sind, liegen die<br />
stabilen <strong>und</strong> instabilen Mannigfaltigkeiten dicht im Torus. Sie schneiden sich transversal. Hier<br />
liegt chaotisches Verhalten vor.<br />
Beispiel 5.13 Als letztes Beispiel betrachten wir die dreidimensionale Differentialgleichung<br />
ẋ = x − y − x(x 2 + y 2 )<br />
ẏ = x + y − y(x 2 + y 2 )<br />
ż = z<br />
Wie oben führen wir in der (x, y)- Ebene Polarkoordinaten x = r cos φ <strong>und</strong> y = r sin φ ein.<br />
Es ergibt sich ṙ = r − r 3 <strong>und</strong> ˙φ = 1. Zu der periodischen Lösung r = 1 wählen wir den<br />
Poincaré-Schnitt H = {(x, y, z) ∈ R 3 | x = 0}. Die dazugehörige zweidimensionale Poincaré-<br />
Abbildung Π : U → H besitzt den Fixpunkt (y, z) = (1, 0). Die zu diesem Fixpunkt gehörige<br />
instabile Mannigfaltigkeit ist durch W u = {(y, z) ∈ R 2 | y = 1} <strong>und</strong> die dazugehörige stabile<br />
Mannigfaltigkeit durch W s = {(y, z) ∈ R 2 | z = 0} gegeben.<br />
Sei x = x(t) eine Lösung, welche in der instabilen Mannigfaltigkeit eines Fixpunktes <strong>und</strong> in der<br />
stabilen Mannigfaltigkeit einer periodischen Lösung liegt, so heißt x = x(t) eine heterokline<br />
Verbindung des Fixpunktes <strong>und</strong> der periodischen Lösung.<br />
Wie wir bereits gesehen haben, können sich in diskreten <strong>Systeme</strong>n die stabile <strong>und</strong> die instabilen<br />
Mannigfaltigkeit eines Fixpunktes transversal schneiden. Als Konsequenz der Invarianz dieser<br />
Mannigfaltigkeiten müssen sich diese dann unendlich oft schneiden. Die Schnitte häufen sich<br />
beim Fixpunkt. Hier liegt ebenfalls chaotisches Verhalten vor. Siehe Kapitel 6.2.<br />
67
5.3 Die Zentrumsmannigfaltigkeit <strong>und</strong> Normalformen<br />
Die Zentrumsmannigfaltigkeit erlaubt es, die in Kapitel 4 vorgestellten Bifurkationen auch in<br />
höheren Raumdimensionen wiederzufinden. Wird ein Fixpunkt instabil, so findet in einer Umgebung<br />
des Fixpunktes die gesamte interessante Dynamik auf der exponentiell attraktiven Zentrumsmannigfaltigkeit<br />
statt. Sogenannte Normalformtransformation vereinfachen die Untersuchung<br />
der gef<strong>und</strong>enen reduzierten <strong>Systeme</strong> <strong>und</strong> erlauben eine Klassifizierung aller möglichen<br />
Bifurkationen. Es gilt<br />
Theorem 5.14 Sei f ∈ C r (R d , R d ) mit f(0) = 0. Wir zerteilen das Spektrum (die Menge der<br />
Eigenwerte) von A = Df| x=0 in einen stabilen, einen instabilen <strong>und</strong> einen zentralen Teil<br />
σ s = {λ ∈ σ | Reλ < 0},<br />
σ c = {λ ∈ σ | Reλ = 0},<br />
σ u = {λ ∈ σ | Reλ > 0}.<br />
Es seien E s , E u <strong>und</strong> E c die Unterräume zu σ s , σ u <strong>und</strong> σ c . Dann existieren r mal stetig differenzierbare<br />
Mannigfaltigkeiten W s <strong>und</strong> W u tangential an E s <strong>und</strong> E u <strong>und</strong> eine r − 1 mal stetig<br />
differenzierbare Mannigfaltigkeit W c tangential an E c . Die Mannigfaltigkeiten W s , W u <strong>und</strong><br />
W c sind alle invariant unter dem Fluß. Die stabile <strong>und</strong> instabile Mannigfaltigkeit sind eindeutig.<br />
Die zentrale Mannigfaltigkeit W c ist im allgemeinen nicht eindeutig. Ist f ∈ C ∞ , so ist<br />
W s , W u ∈ C ∞ . Die Zentrumsmannigfaltigkeit W c kann in C r für alle r < ∞ gewählt werden.<br />
Je größer r gewählt wird, umso kleiner wird W c .<br />
Bevor wir diesen Satz beweisen, wollen wir den Inhalt <strong>und</strong> seine Anwendung anhand von Beispielen<br />
erläutern.<br />
Beispiel 5.15 [Kel67] Betrachte<br />
ẋ = x 2 , ẏ = −y.<br />
Wir erhalten die Lösungen x(t) = x 0<br />
1−tx 0<br />
<strong>und</strong> y(t) = y 0 e −t . Elimination der Zeit t ergibt y(x) =<br />
(y 0 e −1/x 0<br />
)e 1/x . Für x < 0 kommt jede Lösung flach in den Ursprung, d.h. lim x→0,x 0 ist y = 0 die einzige Lösung, welche in den Ursprung konvergiert. Damit erhalten<br />
wir beliebig viele C ∞ - Zentrumsmannigfaltigkeiten durch aneinanderkleben der Stücke rechts<br />
<strong>und</strong> links, womit wir ein Beispiel für die Nichteindeutigkeit der Zentrumsmannigfaltigkeit gef<strong>und</strong>en<br />
haben. Die einzige analytische (d.h. konvergente Potenzreihe) Zentrumsmannigfaltigkeit<br />
ist die x- Achse.<br />
Beispiel 5.16 Wir betrachten<br />
ẋ = µx − x 3 , ẏ = −y<br />
mit µ in der Nähe von Null. Für µ < 0 ist (x, y) = (0, 0) stabil. Für µ = 0 ist W c = {y = 0}.<br />
Durch betrachten von<br />
ẋ = µx − x 3 , ẏ = −y, ˙µ = 0<br />
68
erhalten wir W c = {(µ, x, y) ∈ R 3 | y = 0}. Damit können Bifurkationsprobleme durch<br />
Einführen der Gleichung ˙µ = 0 durch den Zentrumsmannigfaltigkeitensatz behandelt werden.<br />
Da ˙µ = 0 erhalten bleibt, kann ˙µ = 0 anschließend wieder gestrichen werden. So kann das<br />
vorliegende zweidimensionale Bifurkationsproblem durch den Zentrumsmannigfaltigkeitensatz<br />
auf ein eindimensionales Problem in der attraktiven invarianten Zentrumsmannigfaltigkeit reduziert<br />
werden. Diese Reduktion war hier natürlich trivial.<br />
Beispiel 5.17 Wir betrachten<br />
ẋ = µx + x 3 − xy, ẏ = −y + 2x 2<br />
mit µ in der Nähe von Null. Wir ergänzen das System durch ˙µ = 0. Das linearisierte System ist<br />
durch ẋ = 0, ẏ = −y, ˙µ = 0 gegeben <strong>und</strong> so ist offensichtlich E c = {y = 0}. Wir machen<br />
daher den Ansatz<br />
y = h(x) = ax 2 + bµx + cµ 2 + O(|µ| 3 + |x| 3 )<br />
Es ergibt sich<br />
<strong>und</strong> da<br />
folgt durch Koeffizientenvergleich<br />
2axẋ + µẋ + . . . = −(ax 2 + bµx + cµ 2 + . . .) + 2x 2<br />
ẋ = µx + x 3 − ax 3 + . . .<br />
x 2 : 0 = −a + 2, xµ : 0 = −b, µ 2 : 0 = −c, . . .<br />
Allgemein ergibt sich, dass in h keine Potenzen von µ n ohne x auftauchen können. Damit ergibt<br />
sich näherungsweise auf der Zentrumsmannigfaltigkeit<br />
die Gleichung<br />
W c = {y = 2x 2 + O(|µ|x 2 + |x| 3 )}<br />
ẋ = µx + x 3 − x(2x 2 ) + O(µ 2 x 2 + x 4 ) = µx − x 3 + O(µ 2 x 2 + x 4 )<br />
d.h. der Fixpunkt (x, y) = (0, 0) ist für µ ≤ 0 stabil, da wie wir später zeigen werden, die<br />
Stabilität auf der Zentrumsmannigfaltigkeit die Stabilität impliziert. Bei µ = 0 findet eine superkritische<br />
Pitchforkbifurkation statt.<br />
Beispiel 5.18 Um zu demonstrieren, woher die Nichtglattheit der Zentrumsmannigfaltigkeit<br />
stammt, betrachten wir das System<br />
ẋ = −µx, ẏ = −y, ˙µ = 0<br />
mit 0 > −µ > 1. Die Lösungskurven erfüllen dy<br />
dx = µ y x <strong>und</strong> sind durch y(x) = C|x|1/µ gegeben.<br />
Ist r < 1/µ < r + 1 mit r ∈ N, so sind die Lösungskurven in C r , aber nicht in C r+1 . Jede<br />
solche Kurve ist eine Zentrumsmannigfaltigkeit, da sie tangential an y = 0 ist.<br />
69
Beweis des Zentrumsmannigfaltigkeitensatzes:<br />
Wir kommen nun zum Beweis des Zentrumsmannigfaltigkeitensatzes 5.14. Wir beschränken<br />
uns auf die Existenz <strong>und</strong> verweisen auf [Van89] für den Beweis der Differenzierbarkeitseigenschaften.<br />
Wir betrachten<br />
ẋ = Ax + ˜f(x) (12)<br />
mit x ∈ R d , ˜f ∈ C k (R d , R d ) für ein k ≥ 1 <strong>und</strong> ˜f(0) = 0, D ˜f(0) = 0. Zunächst betrachten wir<br />
das lineare System<br />
ẋ = Ax (13)<br />
mit der Lösung x(t) = e At x 0 . Das Spektrum σ(A) von A, d.h. die Gesamtheit der Eigenwerte<br />
zerfällt in einen stabilen, einen instabilen <strong>und</strong> einen zentralen Teil σ s , σ u <strong>und</strong> σ c . Es sei E s der<br />
zu σ s gehörende Unterraum von R d , entsprechend E c <strong>und</strong> E u , d.h.<br />
Entsprechend definieren wir Projektionen<br />
R d = E s ⊕ E c ⊕ E u .<br />
π s : R d → E s , π c : R d → E c , π u : R d → E u<br />
mit kern(π s ) = E c ⊕ E u , kern(π c ) = E s ⊕ E u <strong>und</strong> kern(π u ) = E s ⊕ E c . Wir definieren weiter<br />
π h = π s + π u <strong>und</strong> E h = E s ⊕ E u .<br />
Die wesentliche Idee beruht darin, die invarianten Mannigfaltigkeiten über die exponentiellen<br />
Wachstumsraten der Lösungen zu charakterisieren. Wir definieren<br />
Es gilt dann<br />
β + = min{Reλ | λ ∈ σ u } > 0<br />
β − = max{Reλ | λ ∈ σ s } < 0<br />
β = min{β + , −β − }.<br />
Lemma 5.19 Für jedes ɛ > 0 gibt es ein M(ɛ) > 0, so dass<br />
‖e At π c ‖ ≤ M(ɛ)e |ɛ|t , ∀ t ∈ R,<br />
‖e At π u ‖ ≤ M(ɛ)e (β +−ɛ)t , ∀ t ≤ 0,<br />
‖e At π s ‖ ≤ M(ɛ)e (β −+ɛ)t , ∀ t ≥ 0.<br />
Beweis: Der Beweis folgt unmittelbar aus der Darstellungsformel von e At .<br />
Als nächstes schneiden wir die Funktion ˜f außerhalb einer Umgebung um x = 0 ab. Dazu sei<br />
χ ∈ C ∞ (R d , R) mit den Eigenschaften (i) 0 ≤ χ(x) ≤ 1 für alle x ∈ R d , (ii) χ(x) = 1,<br />
wenn ‖x‖ ≤ 1 <strong>und</strong> (iii) χ(x) = 0, wenn ‖x‖ ≥ 2, gewählt. Dann definieren wir ˜f ρ (x) =<br />
˜f(x)χ(ρ −1 x). Da ˜f ρ (x) = ˜f(x) für x ∈ B ρ = {x ∈ R d | ‖x‖ ≤ ρ} sind die Flüße von<br />
ẋ = Ax + ˜f ρ (x) <strong>und</strong> von (12) für alle x ∈ B ρ gleich. Offensichtlich gilt (ohne Beweis)<br />
70<br />
□
Lemma 5.20 Es sei ˜f ∈ C k für ein k ≥ 1 <strong>und</strong> ˜f ρ wie oben definiert. Dann ist ˜f ρ ∈ C k <strong>und</strong> es<br />
gilt lim ρ→0 sup x∈R d ‖D ˜f ρ (x)‖ = 0.<br />
Da wir nur in der Dynamik in der Nähe von x = 0 interessiert sind, betrachten wir im weiteren<br />
ẋ = Ax + g(x) (14)<br />
mit g ∈ C k (R d , R d ) für ein k ≥ 1 <strong>und</strong> g(0) = 0, D˜g(0) = 0 <strong>und</strong> sup x∈R d ‖Dg(x)‖ hinreichend<br />
klein. Der Existenzsatz für die Zentrumsmannigfaltigkeit lautet.<br />
Theorem 5.21 Sei η ∈ (0, β). Dann gibt es ein δ 0 > 0 such dass für g mit sup x∈R d ‖Dg(x)‖ ≤<br />
δ 0 das folgende gilt.<br />
(i) Die Menge<br />
M c = {x 0 ∈ R d | sup e −η|t| ‖x(t, x 0 )‖ < ∞}<br />
t∈R<br />
ist invariant unter (14) <strong>und</strong> eine C 0 - Mannigfaltigkeit des R d . Genauer, es gibt ein ψ ∈ C 0 (E c , E h )<br />
so dass<br />
M c = {x c + ψ(x c ) | x x ∈ E c }.<br />
ii) Diese Mannigfaltigkeit ist eindeutig.<br />
Bemerkung 5.22 Dies ist kein Widerspruch zur Nichteindeutigkeit von oben, da die eindeutig<br />
ausgewählte Mannigfaltigeit von der Abschneidefunktion abhängig ist.<br />
Beweis: Die Invarianz von M c folgt unmittelbar aus der Definition, denn es ist x(τ, x 0 ) ∈ M c ,<br />
wenn x 0 ∈ M c , da<br />
sup<br />
t∈R<br />
e −η|t| ‖x(t, x(τ, x 0 ))‖ ≤ e η|τ| sup e −η|t+τ| ‖x(t + τ, x 0 ))‖ < ∞.<br />
t∈R<br />
Zum Existenznachweis verwenden wir die Variation der Konstantenformel<br />
x(t) = e A(t−t 0) x(t 0 ) +<br />
∫ t<br />
t 0<br />
e A(t−τ) g(x(τ))dτ.<br />
Wir wenden nun nacheinander die Projektionen π j für j = c, s, u auf diese Gleichung an.<br />
Für den zentralen Teil wählen wir t 0 = 0 <strong>und</strong> so<br />
π c x(t) = e At x c +<br />
∫ t<br />
0<br />
e A(t−τ) π c g(x(τ))dτ<br />
für x c ∈ E c . Für den stabilen Teil betrachten wir t 0 → −∞. Für Lösungen x ∈ M c ergibt sich<br />
π s x(t) =<br />
∫ t<br />
−∞<br />
e A(t−τ) π s g(x(τ))dτ.<br />
Für den instabilen Teil betrachten wir t 0 → ∞. Für Lösungen x ∈ M c ergibt sich<br />
π u x(t) = −<br />
∫ ∞<br />
t<br />
e A(t−τ) π u g(x(τ))dτ.<br />
71
Aus den so erhaltenen Bedingungen erhalten wir für x ∈ M c die Fixpunktbedingung<br />
x = Sx c + KG(x) (15)<br />
mit<br />
der Auswertungsabbildung<br />
<strong>und</strong> der linearen Abbildung<br />
(Sx c )(t) = e At x c ,<br />
G(x)(t) = g(x(t))<br />
(Ky)(t) =<br />
∫ t<br />
0<br />
e A(t−τ) π c y(τ))dτ +<br />
∫ t<br />
−∞<br />
Als geeigneter metrischer Raum erweist sich<br />
e A(t−τ) π s y(τ))dτ −<br />
∫ ∞<br />
Y η = {x ∈ C 0 (R, R d ) | ‖y‖ η = sup e −η|t| ‖y(t)‖ < ∞}.<br />
t∈R<br />
t<br />
e A(t−τ) π u y(τ))dτ.<br />
Lemma 5.23 S ist ein beschränkter linearer Operator von E c nach Y η für jedes η > 0.<br />
Beweis: Nach Lemma 5.19 gibt es ein M(ɛ) > 0, so dass<br />
‖e At x c ‖ ≤ M(ɛ)e ɛ|t| ‖x c ‖<br />
für x c ∈ E c <strong>und</strong> so<br />
Wir setzen<br />
‖Sx c ‖ Yη<br />
≤ M(ɛ)‖x c ‖.<br />
C n b (Rd , R d ) = {x ∈ C n (R d , R d ) | ‖u‖ C n<br />
b<br />
= sup<br />
x∈R d<br />
n∑<br />
j=0<br />
‖∂x j u(x)‖ < ∞}.<br />
□<br />
Lemma 5.24 Für g ∈ C 0 b (Rd , R d ) bildet G den Raum Y η in sich ab. Ist g ∈ C 1 b (Rd , R d ) dann<br />
gilt für jedes η > 0<br />
‖G(y 1 ) − G(y 2 )‖ Yη ≤ ‖Dg‖ C 0<br />
b<br />
‖y 1 − y 2 ‖ Yη<br />
für y 1 , y 2 ∈ Y η .<br />
Beweis: Die erste Aussage ist offensichtlich, da g beschränkt ist. Weiter ist nach dem Mittelwertsatz<br />
‖G(y 1 ) − G(y 2 )‖ Yη ≤ sup e −η|t| ‖g(y 1 (t)) − g(y 2 (t))‖<br />
t∈R<br />
≤<br />
sup e −η|t| ‖Dg‖ C 0<br />
b<br />
‖y 1 (t) − y 2 (t)‖ ≤ ‖Dg‖ C 0<br />
b<br />
‖y 1 − y 2 ‖ Yη<br />
t∈R<br />
für y 1 , y 2 ∈ Y η .<br />
□<br />
72
Lemma 5.25 Für jedes η ∈ (0, β) ist die Abbildung K ein beschränkter linearer Operator von<br />
Y η nach Y η , d.h. es gibt eine Funktion γ : (0, β) → R, so dass<br />
‖K‖ Yη→Y η<br />
≤ γ(η).<br />
Beweis: Zunächst schreiben wir die letzten beiden Terme in der Definition von K als ∫ ∞<br />
∞ B(t−<br />
τ)y(τ)dτ. Sei weiter η ∈ (0, β) <strong>und</strong> y ∈ Y η . Dann folgt<br />
∫ t<br />
e −η|t| ‖(Ky)(t)‖ ≤ ‖y‖ η sup e −η|t| [|<br />
t∈R<br />
≤<br />
≤<br />
‖y‖ η sup[|<br />
t∈R<br />
‖y‖ η [max(<br />
∫ t<br />
0<br />
∫ ∞<br />
0<br />
0<br />
‖e A(t−τ) π c ‖e η|τ| dτ| +<br />
‖e A(t−τ) π c ‖e −η|t−τ| dτ| +<br />
∫ ∞<br />
−∞<br />
∫ ∞<br />
−∞<br />
∫ 0<br />
‖e Aτ π c ‖e −ητ dτ, ‖e Aτ π c ‖e ητ dτ) +<br />
−∞<br />
≤ ‖y‖ η M(ɛ)[(η − ɛ) −1 + 2(β − η − ɛ) −1 ].<br />
Lemma 5.26 Sei η ∈ (0, β) <strong>und</strong> g ∈ C 1 b (Rd ), so dass<br />
κ = ‖K‖ η ‖Dg‖ C 0<br />
b<br />
< 1.<br />
Dann ist I − K ◦ G ein Homöomorphismus in Y η .<br />
Beweis: Dies folgt unmittelbar aus den obigen Lemmata.<br />
‖B(t − τ)‖e η|τ| dτ]<br />
‖B(t − τ)‖e η|t−τ| dτ]<br />
∫ ∞<br />
−∞<br />
‖B(τ)‖e η|τ| dτ]<br />
Wir definieren Ψ = (I − K ◦ G) −1 Dann läßt sich die Lösung der obigen Fixpunktgleichung<br />
(15) als x = Ψ(Sx c ) schreiben. Wir definieren nun<br />
ψ(x c ) = π h Ψ(Sx c )(0)<br />
für alle x c ∈ E c als Abbildung von E c nach E h . Aus der Stetigkeit von Ψ folgt die Stetigkeit<br />
von ψ. Da<br />
Ψ(Sx c ) = Sx c + KG(Ψ(Sx c )),<br />
folgt aus den Definitionen von S, G <strong>und</strong> K, dass<br />
Damit ergibt sich die Schranke<br />
ψ(x c ) =<br />
∫ ∞<br />
−∞<br />
B(−τ)g(Ψ(Sx c ))(τ)dτ.<br />
‖ψ(x c )‖ ≤ 2M(ɛ)‖g‖ C 0<br />
b<br />
(β − ɛ) −1 .<br />
Damit ist die Existenz einer stetigen Zentrumsmannigfaltigkeit bewiesen.<br />
Da für g ∈ C 1 b<br />
die Abbildung Ψ Lipschitz- stetig ist, folgt gleiches für ψ.<br />
73<br />
□<br />
□
Die Konstruktion von stabilen <strong>und</strong> instabilen Mannigfaltigkeiten läuft analog. Im Fall der stabilen<br />
Mannigfaltigkeit wird zum Beispiel die Abbildung<br />
mit<br />
z = Sx s + K s G(z)<br />
im Raum<br />
(Sx s )(t) = e At x s<br />
(K s z)(t) =<br />
∫ t<br />
G(z)(t) = g(z(t))<br />
Z + η<br />
0<br />
e A(t−τ) π s z(τ)dτ −<br />
∫ ∞<br />
t<br />
e A(t−τ) π cu z(τ)dτ<br />
= {z ∈ C0 (R + , R d ) | ‖z‖ η = sup e ηt ‖z(t)‖ < ∞}<br />
t≥0<br />
für x s ∈ E s betrachtet. Damit haben wir die Existenz der Mannigfaltigkeiten nachgewiesen.<br />
Für weitere Details verweisen wir auf [Van89].<br />
□<br />
Bemerkung 5.27 Erstaunlicherweise ist G keine differenzierbare Funktion von Y η nach sich.<br />
Sie ist k- mal stetig differenzierbar von Y η1 nach Y η2 , falls η 1 > kη 2 . Zur Motivation dieser<br />
Aussage betrachten wir g(x) = x k <strong>und</strong> x(t) = e η|t| .<br />
Zentrumsmannigfaltigkeiten M c sind zur Untersuchung von Instabilitäten von besonderem Interesse,<br />
da in einer Umgebung alle Lösungen mit einer exponentiellen Rate O(e −βt ), (mit β von<br />
oben) angezogen werden.<br />
Theorem 5.28 Wir betrachten das modifizierte System (14) mit σ u = ∅. Dann gibt es eine<br />
Konstante C, so dass für alle x 0 ∈ R d gilt: Es gibt ein t 0 ∈ R <strong>und</strong> x c ∈ M c , so dass<br />
Beweis: Siehe [Van89].<br />
‖x(t, x 0 ) − x(t − t 0 , x c )‖ ≤ Ce −βt .<br />
Der Zentrumsmannigfaltigkeitensatz erlaubt es nun die Dimension bei Bifurkationsproblemen<br />
ẋ = Ax + ˜f(x) auf die Dimension von E c zu reduzieren. Durch einen Potenzreihenansatz<br />
x h = ψ(x c ) läßt sich die Differentialgleichung<br />
x˙<br />
c = Ax c + π c ˜f(xc + ψ(x c )) (16)<br />
auf M c näherungsweise berechnen. Eine unmittelbare Folgerung des letzten Satzes ist<br />
Korollar 5.29 Es sei σ u = ∅. Ist x c = 0 im reduzierten System (16) stabil bzw. instabil, so gilt<br />
gleiches für x = 0 im vollen System.<br />
□<br />
74
Beispiel 5.30 Wir betrachten das diskrete dynamische System<br />
x n+1 = x n + x n y n , y n+1 = λy n − x 2 n<br />
mit 0 < λ < 1. Es ergibt sich E c = {y = 0}. Zur Berechnung der Zentrumsmannigfaltigkeit<br />
machen wir wie oben den Ansatz<br />
y = h(x) = ax 2 + bx 3 + O(x 4 ).<br />
Einsetzen ergibt mit y n+1 = ax 2 n+1 + bx3 n+1 + . . ., dass<br />
a(x + x(ax 2 + . . .)) 2 + b(x + x(ax 2 + . . .)) 3 + . . . = λ(ax 2 + bx 3 + . . .) − x 2<br />
<strong>und</strong> so durch Koeffizientenvergleich<br />
Wir erhalten für die Reduktionsfunktion<br />
<strong>und</strong> für die reduzierte Gleichung<br />
x n+1 = x n −<br />
a = − 1<br />
1 − λ , b = 0.<br />
x2<br />
y = h(x) = −<br />
1 − λ + O(x4 )<br />
x3 n<br />
1 − λ + O(x5 n ) = x n(1 − x2 n<br />
1 − λ + O(x4 n )).<br />
Damit ist x = 0 in der reduzierten Gleichung asymptotisch stabil, womit die asymptotische<br />
Stabilität des Ursprungs (x, y) = (0, 0) im vollen System folgt.<br />
Überqueren nun zwei konjugiert komplexe Eigenwerte die imaginäre Achse, so müssen für<br />
die quadratischen Terme 6 Koeffizienten <strong>und</strong> für die kubischen Terme gar 8 Koeffizienten berechnet<br />
werden. Die so erhaltene Näherungsgleichung zu analysieren, ist ohne weitergehende<br />
Überlegungen im Prinzip nicht durchführbar. Hier helfen nun sogenannte Normalformtransformationen,<br />
die es erlauben jedes so erhaltene System auf das bereits untersuchte System<br />
ṙ = ∓r ± r 3 + . . . , ˙φ = 1 + . . . .<br />
zurückzuführen. Wir wollen die Normalform- Methode anhand dieses Beispiels erklären <strong>und</strong><br />
dies zum Beweis des Satzes über Hopf- Bifurkationen verwenden.<br />
Theorem 5.31 Betrachte die gewöhnliche Differentialgleichung ẋ = A µ x + g(x) mit x(t)∈R d<br />
<strong>und</strong> ‖g(x)‖ = O(‖x‖ 2 ) für x → 0. Für µ = 0 besitze A µ die zwei Eigenwerte λ ± = ±iω<br />
mit ω ≠ 0. Die restlichen Eigenwerte sollen echt negativen Realteil besitzen. Weiter gelte<br />
dReλ ±<br />
dµ | µ=0 ≠ 0. Wenn γ r ≠ 0 in (18), dann bifurkiert für µ = 0 aus dem Fixpunkt x = 0<br />
eine einparametrige Familie periodischer Lösungen mit Periode nahe 2π/ω.<br />
75
Beweis: Zunächst wenden wir den Zentrumsmannigfaltigkeitensatz an <strong>und</strong> reduzieren das volle<br />
System auf ein Differentialgleichungssystem auf der zweidimensionalen Zentrumsmannigfaltigkeit<br />
M c tangential an den Unterraum E c zu den Eigenwerten λ ± . O.B.d.A. sei ω| µ=0 = 1<br />
<strong>und</strong><br />
dReλ ±<br />
dµ | µ=0 = µ,<br />
d.h.<br />
λ ± (µ) = i + µ + O(iµ + µ 2 ).<br />
Auf M c führen wir Koordinaten (y, z) ∈ R 2 ein, so dass sich das reduzierte System als<br />
ẏ = µy − z + a 101 µz<br />
+a 020 y 2 + a 011 yz + a 002 z 2 + a 030 y 3 + a 021 y 2 z + a 012 yz 2 + a 003 z 3<br />
+O(µ 2 (|x| + |y|) + |y| 4 + |z| 4 )<br />
ż = µz + y + b 110 µy<br />
+b 020 y 2 + b 011 yz + b 002 z 2 + b 030 y 3 + b 021 y 2 z + b 012 yz 2 + b 003 z 3<br />
+O(µ 2 (|x| + |y|) + |y| 4 + |z| 4 )<br />
mit reellwertigen Koeffizienten a ijk <strong>und</strong> b ijk schreiben läßt. Da dieses System in dieser Form<br />
nicht analysierbar ist, führen wir nacheinander Koordinatentransformationen durch, um ein einfacheres<br />
System zu erhalten.<br />
Einschub: Normalformtransformationen: Wir betrachten allgemein das autonome System<br />
für x(t) ∈ R d , einer d × d-Matrix A <strong>und</strong><br />
ẋ = Ax + f(x)<br />
f(x) = f 2 (x) + f 3 (x) + f 4 (x) + . . .<br />
mit f m (kx) = k m f m (x) für alle k ≥ 0, d.h. f m ist ein Vektor im R d mit homogenen Polynomen<br />
vom Grad m in den Variablen x 1 , . . . , x d als Einträge. Damit ist<br />
⎛ ⎞<br />
f m1<br />
f m = ⎜<br />
⎝ . ⎟<br />
⎠<br />
f md<br />
ein Element des Vektorraums<br />
⎧ ⎛<br />
⎪⎨<br />
V m =<br />
u =<br />
⎪⎩<br />
⎜<br />
⎝<br />
∑<br />
m 1 +...+m d =m α1 m 1 ...m d<br />
x m 1<br />
1 · . . . · x m d<br />
d<br />
.<br />
∑<br />
m 1 +...+m d =m αd m 1 ...m d<br />
x m 1<br />
1 · . . . · x m d<br />
d<br />
⎞<br />
⎟<br />
⎠ | αj m 1 ...m d<br />
∈ R<br />
der vektorwertigen homogenen Polynome vom Grad m in den Variablen x 1 , . . . , x d .<br />
76<br />
⎫<br />
⎪⎬<br />
⎪⎭
Wir suchen nun Koordinatentransformationen, welche es uns erlauben, möglichst viele Einträge<br />
der f m auf Null zu transformieren, um so ein möglichst einfaches System zu erhalten. Dazu<br />
machen wir den Ansatz<br />
x = y + h(y),<br />
wobei<br />
h(y) = h 2 (y) + h 3 (y) + h 4 (y) + . . .<br />
mit h m (ky) = k m h m (y) für alle k ≥ 0, d.h. h m ist ein Vektor im R d mit homogenen Polynomen<br />
vom Grad m in den Variablen y 1 , . . . , y d als Einträge. Wir erhalten<br />
<strong>und</strong> somit<br />
ẋ = ẏ + ∂h ẏ = A(y + h(y)) + f(y + h(y))<br />
∂y<br />
ẏ = (1 + ∂h<br />
∂y )−1 [A(y + h(y)) + f(y + h(y))]<br />
= Ay − ∂h 2<br />
∂y Ay + Ah 2(y) + f 2 (y) + O(‖y‖ 3 ).<br />
Damit muß, um alle quadratischen Terme f 2 wegtransformieren zu können, ein h 2 gef<strong>und</strong>en<br />
werden, so dass<br />
− ∂h 2<br />
∂y Ay + Ah 2(y) + f 2 (y) = 0.<br />
Interpretieren wir h 2 als ein Element des Vektorraumes V 2 , so ist<br />
(L A h 2 )(y) = − ∂h 2<br />
∂y Ay + Ah 2(y)<br />
eine lineare Abbildung des V 2 in sich. (L A wirkt linear auf die Koeffizienten α m m 1 ...m d<br />
.)<br />
Allgemein gilt es zum Wegtransformieren der Terme m-ter Ordnung das lineare Gleichungsystem<br />
− ∂h m<br />
∂y Ay + Ah m(y) + ˜f m (y) = 0<br />
zu lösen, wobei ˜f m die nichtlinearen Terme vom Grad m nach Anwenden der Transformationen<br />
h 2 bis h m−1 sind.<br />
Für unsere Zwecke reicht es sich auf den Fall von diagonalisierbarem A einzuschränken, d.h.<br />
A = diag(λ 1 , . . . , λ d ). Im Raum V m besitzt dann die lineare Abbildung L A die Eigenvektoren<br />
y m 1<br />
1 · . . . · y m d<br />
d<br />
e j, wobei e j der j-te Einheitsvektor des R d sei. Die dazugehörigen Eigenwerte<br />
sind durch µ = ∑ d<br />
k=1 m kλ k − λ j gegeben. Dazu betrachten wir die j-te Komponente<br />
d∑<br />
k=1<br />
∂h mj<br />
∂y k<br />
λ k y k − λ j h mj = µh mj<br />
der Eigenwertgleichung L A h m = µh m Einsetzen der obigen Eigenvektoren ergibt unmittelbar<br />
die Behauptung.<br />
77
Damit kann die Gleichung L A h m = g m in allen Eigenräumen gelöst werden, die nicht zu verschwindenden<br />
Eigenwerten µ = 0 gehören. Diese Terme der Nichtlinearität g m können somit<br />
wegtransformiert werden, wenn die Nichtresonanzbedingung<br />
d∑<br />
m k λ k − λ j ≠ 0 (17)<br />
erfüllt ist. Die zu µ = 0 gehörenden Eigenwerte λ j von A heißen resonant.<br />
k=1<br />
( )<br />
0 1<br />
Beispiel 5.32 Wir betrachten die Matrix A =<br />
. Diese besitzt die Eigenwerte λ 1 = i<br />
−1 0<br />
( ) ( )<br />
i −i<br />
<strong>und</strong> λ 2 = −i zu den Eigenvektoren <strong>und</strong> . Wir diagonalisieren die Matrix A<br />
1 1<br />
durch Einführen der Koordinaten a, b definiert durch<br />
( ) ( ) ( )<br />
x i −i<br />
= a + b .<br />
y 1 1<br />
Es gilt damit folgendes System zu betrachten<br />
ȧ = ia + α 20 a 2 + α 11 ab + α 02 b 2 + α 30 a 3 + α 21 a 2 b + α 12 ab 2 + α 03 b 3 + O(|a| 4 + |b| 4 )<br />
ḃ = −ib + β 20 a 2 + β 11 ab + β 02 b 2 + β 30 a 3 + β 21 a 2 b + β 12 ab 2 + β 03 b 3 + O(|a| 4 + |b| 4 ).<br />
Wir beginnen mit dem Wegtransformiern der quadratischen Terme.<br />
Zu α 20 a 2 : Die Nichtresonanzbedingung ist<br />
−2λ 1 − 0λ 2 + λ 1 = −2i + i ≠ 0<br />
Damit kann dieser Term wegtransformiert werden.<br />
Zu α 11 ab: Die Nichtresonanzbedingung ist<br />
−1λ 1 − 1λ 2 + λ 1 = −i − (−i) + i ≠ 0<br />
Damit kann dieser Term wegtransformiert werden.<br />
Zu α 02 b 2 : Die Nichtresonanzbedingung ist<br />
−0λ 1 − 2λ 2 + λ 1 = −2(−i) + i ≠ 0<br />
Damit kann auch dieser Term wegtransformiert werden. Analog können auch alle quadratischen<br />
Terme in der Gleichung für b wegtransformiert werden.<br />
Zu den kubischen Termen:<br />
78
Zu α 30 a 3 : Die Nichtresonanzbedingung ist<br />
−3λ 1 − 0λ 2 + λ 1 = −3i + i ≠ 0<br />
Damit kann dieser Term wegtransformiert werden.<br />
Zu α 21 a 2 b: Diesmal ist die Nichtresonanzbedingung nicht erfüllt, denn<br />
−2λ 1 − 1λ 2 + λ 1 = −2i − (−i) + i = 0<br />
Damit kann dieser Term nicht wegtransformiert werden.<br />
Zu α 12 ab 2 : Die Nichtresonanzbedingung ist<br />
−1λ 1 − 2λ 2 + λ 1 = −i − 2(−i) + i ≠ 0<br />
Damit kann dieser Term wegtransformiert werden.<br />
Zu α 03 b 3 : Die Nichtresonanzbedingung ist<br />
−0λ 1 − 3λ 2 + λ 1 = −3(−i) + i ≠ 0<br />
Damit kann dieser Term wegtransformiert werden.<br />
Das gleiche Abbildung ergibt sich für die kubischen Terme in der Gleichung für b. Dort können<br />
alle Terme bis auf ab 2 wegtransformiert werden.<br />
Damit ergibt sich nach den Normalformtransformationen h 2 <strong>und</strong> h 3 das System<br />
ȧ = ia + γ a a 2 b + O(|a| 4 + |b| 4 )<br />
ḃ = −ib + γ b ab 2 + O(|a| 4 + |b| 4 ),<br />
mit Koeffizienten γ a = γ b nach den Transformationen, wenn das ursprüngliche System reell<br />
war.<br />
Zurück zum eigentlichen Beweis: In unserem Fall muß das obige System noch durch die<br />
Terme mit µ <strong>und</strong> die Gleichung ˙µ = 0 ergänzt werden. Es ergibt sich dann<br />
ȧ = ia + µa + iα 110 µa + γ a a 2 b + O(|µ 2 |(|a| + |b|) + |a| 4 + |b| 4 )<br />
ḃ = −ib + µb − iα 110 µb + γ b ab 2 + O(|µ 2 |(|a| + |b|) + |a| 4 + |b| 4 ),<br />
In den ursprünglichen x, y-Koordinaten ergibt sich<br />
ẋ = y + µx + α 110 µy + γ r (x 2 + y 2 )x + γ i (x 2 + y 2 )y + O(|µ 2 |(|x| + |y|) + |x| 4 + |y| 4 )<br />
ẏ = −x + µy − α 110 µx + γ r (x 2 + y 2 )y − γ i (x 2 + y 2 )y + O(|µ 2 |(|x| + |y|) + |x| 4 + |y| 4 ).<br />
Führen wir Polarkoordinaten x = r cos φ <strong>und</strong> y = r sin φ ein, so erhalten wir<br />
ṙ = µr − γ r r 3 + O(µ 2 r + r 4 ) (18)<br />
˙φ = −1 − α 110 µ − γ i r 2 + O(µ 2 + r 3 )<br />
79
Damit haben wir ein System, welches wir für kleines µ untersuchen können. (Beachte r =<br />
O( √ µ) für die bifurkierenden Lösungen). Den endgültigen Existenznachweis der periodischen<br />
Lösungen wollen wir im folgenden nur kurz skizzieren.<br />
Für das abgeschnitte System<br />
finden wir die periodische Lösung r 2 = µ/γ r .<br />
ṙ = µr − γ r r 3<br />
˙φ = −1<br />
Zu dieser Lösung konstruieren wir die dazugehörige Poincaré-Abbildung Π. Die periodische<br />
Lösung entspricht einem Fixpunkt von Π. Nach dem Satz über implizite Funktionen bleibt<br />
dieser Fixpunkt bei Hinzunahme der vernachlässigten Terme erhalten. Damit haben wir für das<br />
volle System eine periodische Lösung gef<strong>und</strong>en.<br />
□<br />
80
6 Homokline <strong>und</strong> heterokline Lösungen<br />
Wir interessieren uns nun für das globale Verhalten der Lösungen von <strong>Differentialgleichungen</strong>.<br />
Hier spielen homokline <strong>und</strong> heterokline Lösungen eine wichtige Rolle. In der Nähe homokliner<br />
Lösungen kann chaotisches Verhalten gef<strong>und</strong>en werden. Eine Lösung x = x(t) einer<br />
autonomen Differentialgleichung heißt heterokline Verbindung der Fixpunkte x − <strong>und</strong> x + , falls<br />
lim t→±∞ x(t) = x ± . Sie heißt homoklin, falls x − = x + . Eine heterokline Verbindung x = x(t)<br />
muß daher im Schnitt der instabilen Mannigfaltigkeit W u (x − ) von x − <strong>und</strong> der stabilen Mannigfaltigkeit<br />
W s (x + ) von x + liegen.<br />
6.1 ω-Limesmengen, Ebene <strong>Systeme</strong>, Gradientensysteme<br />
Zunächst möchten wir formalisieren, was wir unter dem Langzeitverhalten der Lösungen gewöhnlicher<br />
<strong>Differentialgleichungen</strong> verstehen.<br />
Eine Lösung x = x(t) von ẋ = f(x) mit x(0) = x 0 ergibt im Phasenraum einen Orbit oder<br />
eine Trajektorie, welche wir mit γ(x 0 ) bezeichnen. Ist x(t 1 ) = x 1 , so gilt γ(x 0 ) = γ(x 1 ). Wir<br />
setzen<br />
γ + (x 0 ) = {x ∈ R d | ∃t ≥ 0 : x = x(t, x 0 )} <strong>und</strong> γ − (x 0 ) = {x ∈ R d | ∃t ≤ 0 : x = x(t, x 0 )}.<br />
Damit ist γ(x 0 ) = γ + (x 0 ) ∪ γ − (x 0 ).<br />
Definition 6.1 Ein Punkt p ∈ R d heißt positiver Limespunkt von γ(x 0 ), wenn es eine Folge<br />
(t n ) n∈N mit t n ≤ t n+1 <strong>und</strong> t n → ∞ gibt, so dass lim tn→∞ x(t n ) = p gilt. Die Menge aller<br />
positiven Limespunkte eines Orbits γ wird als ω-Limesmenge bezeichnet. Die Menge der<br />
entsprechend definierten negativen Limespunkte wird als α-Limesmenge bezeichnet.<br />
Beispiel 6.2 Betrachte<br />
ẋ 1 = x 2 , ẋ 2 = −x 1 .<br />
Ist p ∈ γ(x 0 ), dann ist p auch positiver <strong>und</strong> negativer Limespunkt. Setze t n = t 0 + 2πn, wenn<br />
x(t 0 ) = p. Dann gilt lim tn→∞ x(t n ) = lim tn→∞ p = p<br />
Theorem 6.3 Die Mengen α(γ) <strong>und</strong> ω(γ) sind abgeschlossen <strong>und</strong> invariant. Ist γ + beschränkt,<br />
dann ist die ω-Limesmege kompakt, zusammenhängend <strong>und</strong> nicht leer.<br />
Beweis: a) ω(γ) als Menge der Limespunkte ist abgeschlossen.<br />
b) Zur Invarianz: Sei p ∈ ω(γ). Dann gibt es eine Folge t n → ∞, so dass lim tn→∞ x(t n ) = p.<br />
Zu zeigen ist nun: x(t, p) ∈ ω(γ). Da x(t + t n , x 0 ) = x(t, x(t n , x 0 )) folgt im Limes n → ∞,<br />
dass<br />
x(t + t n , x 0 ) → x(t, p),<br />
womit die Behauptung γ(p) ⊂ ω(γ) folgt.<br />
c) Mit γ + ist offensichtlich auch ω(γ) beschränkt. Da nach a) ω(γ) abgeschlossen ist, folgt die<br />
81
Kompaktheit von ω(γ).<br />
d) Besteht γ + aus mehr als einem Punkt, d.h. ist γ + kein Fixpunkt, so enthält γ + unendlich viele<br />
Punkte. Damit existiert mindestens ein Häufungspunkt p der beschränkten Menge γ + . Besteht<br />
γ + nur aus einem Fixpunkt, so ist γ + = ω(γ) ebenfalls nicht leer.<br />
e) Wir nehmen an ω(γ) sei nicht zusammenhängend, d.h. ω(γ) = A 1 ∪ A 2 mit A 1 ∩ A 2 = ∅.<br />
Da γ + beschränkt ist, gibt es ein R > 0, so dass γ + ⊂ B R (0) = {x ∈ R d | ‖x‖ ≤ R}.<br />
Der Abstand von A 1 <strong>und</strong> A 2 sei δ > 0. Wir setzen<br />
A 3 = {x ∈ B R (0) | δ/4 ≤ dist(x, ω(γ))}.<br />
Offensichtlich muß die Lösung die Menge A 3 unendlich oft durchqueren, womit ein Limespunkt<br />
in A 3 liegen muß.<br />
□<br />
Beispiel 6.4 Wir betrachten in Polarkoordinaten<br />
ṙ = r(1 − r),<br />
˙φ = sin 2 (φ/2).<br />
Dieses System besitzt die Fixpunkte (r, φ) = (0, 0) <strong>und</strong> (r, φ) = (1, 0), welche beide instabil<br />
sind. Die ω-Limesmenge zum Fixpunkt (r, φ) = (0, 0) ist durch diesen Fixpunkt gegeben. Das<br />
Phasenbild zeigt, dass die ω-Limesmenge zu jeder anderen Lösung durch {(r, φ) | (r, φ) =<br />
(1, 0)} gegeben ist, obwohl dieser Fixpunkt instabil ist.<br />
Im restlichen Kapitel wollen wir die ω-Limesmengen von ebenen <strong>Systeme</strong>n <strong>und</strong> von Gradientensystemen<br />
charakterisieren.<br />
Ebene <strong>Systeme</strong>:<br />
Wir betrachten autonome <strong>Differentialgleichungen</strong> ẋ = f(x) mit x(t) ∈ R 2 . Was diese <strong>Systeme</strong><br />
von <strong>Systeme</strong>n in höheren Raumdimensionen unterscheidet ist der Jordansche Kurvensatz.<br />
Eine geschlossene, sich nicht selber schneidende differenzierbare Kurve Γ zerteilt die Ebene,<br />
d.h. den R 2 in zwei Teile, einen Teil innerhalb <strong>und</strong> einen Teil außerhalb der Kurve.<br />
Als Konsequenz müssen Poincaré-Abbildungen stets monoton sein. Denn: Ein Kurve l heißt<br />
transversal an die Orbits, wenn l keine kritischen Punkte (Fixpunkte) enthält <strong>und</strong> nicht tangential<br />
an einen Orbit ist. Zu einer Transversale l können wir wie oben eine Poincaré-Abbildung Π<br />
definieren. Es gilt dann<br />
Lemma 6.5 Die Folge (Π n (x)) n der Iterierten der Poincaré-Abbildung ist für x ∈ l monoton.<br />
Beweis: Nach Voraussetzung zeigt das Vektorfeld f stets auf eine Seite von l. Damit müssen<br />
die Lösungen l stets von der gleichen Seite durchstoßen. Sei nun x ∈ l gegeben <strong>und</strong> Π(x) ∈ l<br />
existent. Siehe Abbildung 24.<br />
Dann kann Π 2 (x), falls existent, wegen des Jordanschen Kurvensatzes <strong>und</strong> des lokalen Existenz<strong>und</strong><br />
Eindeutigkeitssatzes die Folge x, Π(x) nur monoton in l fortsetzen.<br />
□<br />
Als unmittelbare Folge erhalten wir:<br />
82
Abbildung 24: Schnitt der Lösung mit der Transversalen.<br />
Lemma 6.6 Die ω-Limesmenge eines Orbits γ(p) kann das Innere einer Transversale nur in<br />
einem Punkt schneiden.<br />
Mittels dieser Vorüberlegungen beweisen wir nun den Satz von Poincaré-Bendixson.<br />
Theorem 6.7 Betrachte ẋ = f(x) mit f ∈ C 1 (R 2 , R 2 ) <strong>und</strong> es sei γ + ein beschränkter positiver<br />
Orbit, wobei ω(γ) keine Fixpunkte enthalten soll. Dann ist ω(γ) ein periodischer Orbit.<br />
Bemerkung 6.8 Ist ω(γ) ≠ γ, so heißt der periodische Orbit Grenzzykel.<br />
Beweis: Sei x 0 ∈ ω(γ). Da ω(γ) keine Fixpunkte enthält, gibt es eine Transversale l durch<br />
diesen Punkt. Schneidet γ + die Transversale l nur einmal, so muß γ = ω(γ) <strong>und</strong> damit ein<br />
periodischer Orbit sein.<br />
Schneidet γ + die Transversale l mehr als einmal, so gibt es unendlich viele Schnitte <strong>und</strong> γ ∩<br />
ω(γ) = ∅. Da ω(γ) keine Fixpunkte enthält <strong>und</strong> x 0 ∈ ω(γ) beliebig war, muß ω(γ) aus einem<br />
periodischen Orbit bestehen.<br />
□<br />
Beispiel 6.9 Siehe Abbildung 25.<br />
Bemerkung 6.10 Wie wir bereits gesehen haben, ist der Satz von Poincaré-Bendixson auf<br />
dem Torus falsch, da es dort quasiperiodische Orbits geben kann, die den ganzen Torus als<br />
ω-Limesmenge besitzen.<br />
Gradientensysteme:<br />
Im folgenden betrachten wir autonome Gradientensysteme ẋ = −∇V (x) mit Potentialfunktion<br />
V ∈ C 2 (R d , R) <strong>und</strong> x(t) ∈ R d . Jede Extremstelle von V ist ein Fixpunkt der Differentialgleichung.<br />
Da V entlang von Lösungen abnimmt, können Gradientensysteme keine periodischen<br />
Lösungen <strong>und</strong> keine geschlossenen heteroklinen Verbindungen besitzen. Da ∇V senkrecht auf<br />
den Tangentialebenen der Äquipotentialflächen {x ∈ R d | V (x) = h} steht, werden diese durch<br />
die Lösungen immer senkrecht durchstoßen.<br />
Ein typische Situation ist wie folgt: Es gilt V (x) → ∞ für ‖x‖ → ∞ <strong>und</strong> alle Extremstellen<br />
83
Abbildung 25: Verschiedene ω-Limesmengen.<br />
von V liegen innerhalb B R (0) = {x ∈ R d |‖x‖ ≤ R}. Damit gibt es für jede Anfangsbedingung<br />
x 0 ∈ R d eine Zeit T ≥ 0, so dass x(t, x 0 ) ∈ B R (0) für alle t ≥ T . Die Kugel B R (0) heißt<br />
absorbierend. Besitzt V nur endlich viele Extremstellen, so gilt offensichtlich:<br />
Lemma 6.11 Unter diesen Voraussetzungen besteht die ω-Limesmenge eines jeden Orbits γ<br />
aus genau einem Fixpunkt.<br />
Bemerkung 6.12 Bei Potentialen V mit unendlich vielen Fixpunkten, kann die ω-Limesmenge<br />
aus unendlich vielen Fixpunkten bestehen.<br />
Bemerkung 6.13 Gradientensysteme, bei denen alle Fixpunkte hyperbolisch (d.h. keine Eigenwerte<br />
auf der imaginären Achse besitzen (dies impliziert die Isoliertheit der Fixpunkte))<br />
<strong>und</strong> alle Schnitte von stabilen <strong>und</strong> instabilen Mannigfaltigkeiten transversal sind, (d.h. die Tangentialebenen<br />
spannen ganz R d auf) sind strukturell stabil (d.h. diese Struktur geht bei kleinen<br />
Störungen nicht verloren). Siehe [Pal82].<br />
6.2 Melnikov-Chaos<br />
Wir betrachten hier zweidimensionale autonome <strong>Differentialgleichungen</strong> mit einer homoklinen<br />
Verbindung. Werden solche <strong>Systeme</strong> zeitlich periodisch gestört, so kann chaotisches Verhalten<br />
auftreten. Typische Beispiele sind:<br />
ẋ 1 = x 2 , ẋ 2 = x 1 − x 3 1 + ɛ(γ cos ωt − δx 2)<br />
oder<br />
ẋ 1 = x 2 , ẋ 2 = − sin x 1 + ɛ(γ cos t − δx 2 )<br />
84
mit 0 ≤ ɛ ≪ 1 ein kleiner Parameter. Im zweiten System identifizieren wir die Fixpunkte<br />
(−π, 0) <strong>und</strong> (π, 0) durch betrachten von S 1 × R anstelle von R 2 als Phasenraum. Die heteroklinen<br />
Verbindungen werden dadurch zu homoklinen Lösungen.<br />
Die zeitlich periodische Störung dieser <strong>Systeme</strong> untersuchen wir dadurch, dass wir die Zeit<br />
2π-Abbildung<br />
Π ɛ : x 0 ↦→ x ɛ (2π, x 0 ) = x ɛ (2π, 0, x 0 )<br />
betrachten. Für t = 2πn + s mit s ∈ (0, 2π) gilt<br />
x ɛ (t, x 0 ) = x ɛ (s, x ɛ (2π, x ɛ (2π, (. . . (x ɛ (2π, x 0 ) . . .))))))<br />
= x ɛ (s, ·) ◦ Π n ɛ (x 0).<br />
Damit reicht es im folgenden zur Untersuchung der Dynamik, Iterationen der Abbildung Π ɛ zu<br />
betrachten. Die Abbildung x ɛ (s, ·) mit s ∈ [0, 2π) stellt eine Koordinatentransformation dar.<br />
Allgemein betrachten wir<br />
)<br />
(<br />
u<br />
v<br />
ẋ = f(x) + ɛg(x, t), x =<br />
mit g(x, t) = g(x, t + 2π) <strong>und</strong> x(t) ∈ R 2 . Von<br />
( )<br />
f1 (x)<br />
f =<br />
f 2 (x)<br />
<strong>und</strong> g =<br />
(<br />
g1 (x, t)<br />
)<br />
g 2 (x, t)<br />
wollen wir voraussetzen, dass diese mindestens in C 2 sind.<br />
Weiter wollen wir voraussetzen, dass das ungestörte System einen homoklinen Orbit Γ : t ↦→<br />
q 0 (t) an einen hyperbolischen Sattelpunkt p 0 besitzt. Das gleiche ist damit für die Iteration der<br />
Poincaré-Abbildungen x n+1 = Π 0 (x n ) für ɛ = 0 wahr, d.h. am Fixpunkt Π 0 (p 0 ) = p 0 hängt die<br />
homokline Lösung Γ.<br />
Wir wollen nun untersuchen, wie das Bild für ɛ ≠ 0 aussieht.<br />
Der Fixpunkt p 0 kann mittels des Satzes über implizite Funktionen auch für ɛ > 0 fortgesetzt<br />
werden. Es gilt<br />
Lemma 6.14 Für ɛ > 0 besitzt die Iteration x n+1 = Π ɛ (x n ) einen eindeutigen Fixpunkt p ɛ mit<br />
p ɛ = p 0 + O(ɛ).<br />
Beweis: Wir suchen Nullstellen der Abbildung G : R 2 × R + → R 2 definiert durch<br />
G(x, ɛ) = Π ɛ (x) − x.<br />
Es ist i) G(p 0 , 0) = 0. ii) Die Linearisierung D x G(p 0 , 0) von G an (p 0 , 0) ist invertierbar, denn:<br />
zu ii) Es ist D x G(p 0 , 0) = D x Π 0 (p 0 ) − I <strong>und</strong> D x Π 0 (p 0 ) = e A2π , wobei A = D x f| x=p0<br />
nach<br />
85
Voraussetzung keine Eigenwerte λ j (0) auf der imaginären Achse hat. Damit sind die Eigenwerte<br />
von D x G(p 0 , 0) durch e 2πλ j(0) − 1 ≠ 0 gegeben. Als Konsequenz ist damit D x G(p 0 , 0)<br />
invertierbar.<br />
Wegen i) <strong>und</strong> ii) kann der Satz über implizite Funktionen angewandt werden <strong>und</strong> G(x, ɛ) = 0<br />
in der Nähe von (p 0 , 0) nach x = p ɛ aufgelöst werden, womit die Behauptung folgt. □<br />
Die Eigenwerte µ j (ɛ) der Linearisierung D x Π ɛ | x=pɛ erfüllen µ j (ɛ) = e 2πλj(0) + O(ɛ). Damit<br />
ist p ɛ ein hyperbolischer Sattelpunkt der Iteration x n+1 = Π ɛ (x n ). Zu diesem Fixpunkt x = p ɛ<br />
existiert folglich eine stabile <strong>und</strong> eine instabile Mannigfaltigkeit W s,ɛ (p ɛ ) bzw. W u,ɛ (p ɛ ). Diese<br />
liegen für kleines ɛ > 0 <strong>und</strong> für x → ∞ bzw. für x → −∞ in der Nähe der Mannigfaltigkeiten<br />
für ɛ = 0. Für ɛ > 0 besteht die Möglichkeit, dass sich diese Mannigfaltigkeiten transversal<br />
schneiden. Dieser Schnittpunkt sei q = q(ɛ). Siehe Abbildung 26.<br />
Da die stabile <strong>und</strong> instabile Mannigfaltigkeit invariant unter Π ɛ sind, muß jede Vorwärts <strong>und</strong><br />
p<br />
ε<br />
p<br />
0<br />
q<br />
ε<br />
Abbildung 26: Transversaler homokliner Punkt q.<br />
Rückwärtsiterationen von q = q(ɛ) wieder in diesen Mannigfaltigkeiten liegen, d.h.<br />
Π j ɛ(q) ∈ W s,ɛ (p ɛ ) <strong>und</strong> Π j ɛ(q) ∈ W u,ɛ (p ɛ )<br />
für j ∈ Z. Damit schneiden sich diese Mannigfaltigkeiten unendlich oft <strong>und</strong> es ergibt sich<br />
Abbildung 27.<br />
In dieser Situation liegt chaotisches Verhalten vor. Dies definieren wir wie in Abschnitt 4.3<br />
mittels Shiftdynamik. Der Nachweis chaotischen Verhaltens in gewöhnlichen <strong>Differentialgleichungen</strong><br />
läuft meist über den Nachweis einer Smaleschen Hufeisenabbildung<br />
Einschub: Smale’s Horseshoe<br />
Dieses zweidimensionale <strong>Dynamische</strong> System ist entsprechend der folgenden geometrischen<br />
Konstruktion definiert.<br />
Wir beginnen mit dem Einheitsquadrat S = [0, 1] × [0, 1] in der Ebene <strong>und</strong> definieren eine Abbildung<br />
f : S → R 2 , so dass f(S)∩S aus zwei Komponenten besteht. Die genaue Konstruktion<br />
findet sich in Abbildung 28. Die Abbildung f ist eine Streckung in vertikaler Richtung mit Faktor<br />
µ <strong>und</strong> eine Kontraktion in horizontaler Richtung mit Faktor λ mit anschließender Faltung.<br />
86
q ε<br />
p<br />
ε<br />
Abbildung 27: Unendlich viele Schnitte der invarianten Mannigfaltigkeiten.<br />
V V<br />
0 1<br />
H 1<br />
H 0<br />
Abbildung 28: Smalesche Hufeisenabbildung.<br />
Die Menge S wird durch f in zwei vertikale Streifen V 0 <strong>und</strong> V 1 abgebildet.<br />
Das inverse Bild dieser Abbildung bildet S in zwei horizontale Streifen H 0 <strong>und</strong> H 1 ab. Auf H j ,<br />
j ∈ {0, 1} besitzt die Abbildung f die Linearisierung<br />
( )<br />
±λ 0<br />
, (+ auf H 0 , − auf H 1 )<br />
0 ±µ<br />
mit λ ∈ (0, 1/2) <strong>und</strong> µ > 2.<br />
Unter der Iteration f verlassen die meisten Punkte die Menge S. Die Punkte, welche unter allen<br />
Iterationen von f in S in S bleiben, definieren eine Menge<br />
Λ = {x | f i (x) ∈ S, −∞ < i < ∞}<br />
Die Menge Λ weist eine komplizierte topologische Struktur auf. Jedes horizontale Band H i<br />
wird durch f in das vertikale Band V i = f(H i ) abgebildet.<br />
Wir betrachten den Schnitt V i ∩ H j . Die so erhaltenen Mengen kommen von dünneren Streifen<br />
87
H ij . Als Bild der zweifachen Iteration ergeben sich nun vertikale Streifen V ij = f 2 (H ij ). Siehe<br />
Abbildung 29.<br />
V V V V<br />
00 10<br />
11 01<br />
H<br />
10<br />
H<br />
11<br />
f<br />
f<br />
H<br />
01<br />
H<br />
00<br />
Abbildung 29: Iteration der Hufeisenabbildung.<br />
Setzen wir diese Konstruktion fort <strong>und</strong> schneiden alle so erhaltenen vertikalen <strong>und</strong> horizontalen<br />
Streifen, so ergibt sich eine abgeschlossene, nicht leere, nirgends zummenhängende Menge Λ.<br />
Da jeder Punkt in Λ ein Häufungspunkt aus Punkten aus Λ ist, handelt es sich bei Λ um eine<br />
Cantormenge.<br />
Bemerkung 6.15 Diese Konstruktion ist robust unter Störungen, die in C 1 klein sind.<br />
Jedem Punkt x ∈ Λ kann damit in eindeutiger Weise eine unendliche Folge a : Z → R zugewiesen<br />
werden, nämlich φ(x) = {a i } ∞ i=−∞ mit f i (x) ∈ H ai .<br />
Es ist φ(f(x)) = {b i } ∞ i=−∞ mit f i+1 (x) ∈ H bi . Damit ist f i (x) ∈ H bi−1 = H ai <strong>und</strong> so b i = a i+1 ,<br />
womit also φ ◦ f = σ ◦ φ gilt. Damit kann die Shiftabbildung in der Smaleschen Hufeisenabbildung<br />
gef<strong>und</strong>en werden.<br />
Es bleibt die Stetigkeit von φ : Λ → M zu zeigen. Sei x ∈ Λ gegeben. Dann bleibt zu zeigen,<br />
dass es für alle ɛ > 0 ein δ > 0, so dass d(φ(x), φ(y)) < ɛ aus ‖x−y‖ < δ folgt. Zu gegebenem<br />
ɛ > 0 gibt es ein j 0 = j 0 (ɛ), dass d(a, b) ≤ ɛ bedeutet, dass a j = b j für |j| ≤ j 0 <strong>und</strong> beliebig<br />
für |j| > j 0 . Die Forderung d(φ(x), φ(y)) < ɛ legt damit eindeutig zwei endliche Folgen<br />
a + = {a i } j 0<br />
j=0 <strong>und</strong> a − = {a i } −1<br />
j=−j 0 −1 fest. Zu dieser Folge gehören eindeutig Streifen V a − <strong>und</strong><br />
H a +. Wählen wir δ > 0 so klein, dass y ∈ V a + ∩ H a − aus ‖y − x‖ ≤ δ folgt, sind wir fertig. Da<br />
die Stetigkeit von φ −1 analog folgt, gilt damit<br />
Lemma 6.16 Es gibt eine bijektive Abbildung φ zwischen Λ <strong>und</strong> M, so dass die Folge b =<br />
φ(f(x)) aus a = φ(x) durch einen Shift der Indizes, b i = a i+1 erhalten wird. Die Abbildung φ<br />
ist Homöomorphismus zwischen den metrischen Räumen (M, d) <strong>und</strong> (Λ, ‖ · ‖).<br />
Konsequenz: Die Hufeisenabbildung f besitzt eine invariante Cantor Menge Λ, so dass<br />
88
i) Λ enthält eine abzählbare Menge periodischer Lösungen jeder Periode.<br />
ii) Λ enthält einen dichten Orbit.<br />
iii) Λ enthält eine überabzählbare Menge nichtperiodischer, beschränkter Lösungen.<br />
Wir zeigen nun wie bei der Existenz eines transversalen Schnittes der stabilen <strong>und</strong> instabilen<br />
Mannigfaltigkeit eine Hufeisenabbildung gef<strong>und</strong>en werden kann <strong>und</strong> so chaotisches Verhalten<br />
folgt.<br />
Theorem 6.17 (Das Smale-Birkhoff homokline Orbit Theorem) Sei f : R d → R d ein Diffeomorphismus,<br />
so dass p ein hyperbolischer Fixpunkt ist <strong>und</strong> ein q ≠ p ein weiterer Punkt in<br />
dem sich die stabile Mannigfaltigkeit W s (p) <strong>und</strong> die instabile Mannigfaltigkeit W u (p) transversal<br />
schneiden. Dann besitzt f eine (hyperbolische) Menge Λ auf der eine Iterierte von f<br />
homöomorph zur Shiftabbildung ist.<br />
Bemerkung 6.18 Eine unter f invariante Menge Λ besitzt eine hyperbolische Struktur, wenn<br />
es eine stetige invariante Zerlegung der Tangentialräume T Λ R d = EΛ u ⊕ Es Λ mit der folgenden<br />
Eigenschaft gibt: Es existieren Konstanten C > 0 <strong>und</strong> λ ∈ (0, 1) mit<br />
i) |Df −n (x)v| ≤ Cλ n |v|, wenn v ∈ E u x.<br />
i) |Df n (x)v| ≤ Cλ n |v|, wenn v ∈ E s x.<br />
Beweisskizze im R 2 : Die Idee beruht darauf, für eine Iterierte von f ein Bild zu finden, welches<br />
dem obigen Bild der Hufeisenabbildung entspricht. Dazu sei o.B.d.A. der Sattelpunkt p im<br />
Ursprung.<br />
Nach dem Satz von Hartman-Grobman besitzt der Sattelpunkt (x, y) = (0, 0) eine Umgebung,<br />
in der nach der Koordinatentransformation die Dynamik durch<br />
x n+1 = λx n , y n+1 = µy n<br />
mit |µ| > 1 > |λ| gegeben ist. Da wir an <strong>Systeme</strong>n interessiert sind, die von periodischen<br />
Störungen gewöhnlicher <strong>Differentialgleichungen</strong> kommen, setzen wir voraus, dass µ, λ positiv<br />
sind.<br />
Wir betrachten dann die Menge<br />
S = {(x, y) ∈ R 2 | 0 ≤ x ≤ δ, |y| ≤ δ}<br />
für δ > 0 hinreichend klein. Die k-te Iterierte für k hinreichend groß ist in Abbildung 30 skizziert.<br />
Damit haben wir die Smalesche Hufeisenabbildung bei Vorliegen eines homoklinen transversalen<br />
Punktes gef<strong>und</strong>en.<br />
□<br />
Es bleibt zu zeigen, dass sich die stabile <strong>und</strong> instabile Mannigfaltigkeit bei den von uns betrachteten<br />
<strong>Differentialgleichungen</strong> tatsächlich transversal schneiden. Der Einfachheit halber, wollen<br />
wir annehmen, dass die ungestörte Gleichung ein Hamiltonsches System ist, d.h. es gibt eine<br />
89
k<br />
f (S)<br />
W<br />
u<br />
p<br />
ε<br />
W<br />
s<br />
q<br />
ε<br />
S<br />
Abbildung 30: Smalesche Hufeisenabbildung bei Vorliegen eines homoklinen transversalen Punktes.<br />
Funktion H : R 2 → R, so dass f 1 = ∂H<br />
∂v<br />
<strong>und</strong> f 2 = − ∂H<br />
∂u .<br />
Wie wir bereits gesehen haben, besitzt die Poincaré-Abbildung Π ɛ des gestörten Systems einen<br />
hyperbolischen Sattelpunkt p ɛ = p 0 + O(ɛ), welcher in im erweiterten Phasenraum R 2 × S 1<br />
einer periodischen Lösung γ ɛ (t) = p 0 + O(ɛ) entspricht.<br />
Lemma 6.19 Die lokalen stabilen <strong>und</strong> instabilen Mannigfaltigkeiten W s<br />
loc (γ ɛ) <strong>und</strong> W u<br />
loc (γ ɛ)<br />
sind C r -nahe an denen des ungestörten periodischen Orbits p 0 × S 1 . Trajektorien q s ɛ (t, t 0) <strong>und</strong><br />
q s ɛ(t, t 0 ), welche in W s (γ ɛ ) <strong>und</strong> W u (γ ɛ ) liegen, können wie folgt ausgedrückt werden. Es gilt<br />
q s ɛ(t, t 0 ) = q 0 (t − t 0 ) + ɛq s 1(t, t 0 ) + O(ɛ 2 ), t ∈ [t 0 , ∞)<br />
q u ɛ (t, t 0) = q 0 (t − t 0 ) + ɛq u 1 (t, t 0) + O(ɛ 2 ), t ∈ (−∞, t 0 ]<br />
gleichmäßig auf den angegeben Intervallen.<br />
Beweis: Die Behauptung über die lokalen Mannigfaltigkeiten folgt unmittelbar aus der Theorie<br />
der invarianten Mannigfaltigkeiten. Siehe [Van89].<br />
Die Abschätzung für qɛ s(t, t 0) folgt mit Hilfe der Gronwallschen Gleichung unter Beachtung,<br />
dass nach einer endlichen Zeit die Lösung mit einer exponentiellen Rate in den Fixpunkt gezogen<br />
wird. Durch Umdrehen der Zeit folgt die Behauptung für qɛ u(t, t 0).<br />
□<br />
Wir betrachten nun Poincaré-Abbildungen P t 0<br />
ɛ : Σ t 0<br />
→ Σ t 0<br />
, wobei Σ t 0<br />
= {(x, t) | t = t 0 ∈<br />
[0, 2π]}. Dann definieren wir den Abstand der Mannigfaltigkeiten W u (p t 0 ɛ ) <strong>und</strong> W s (p t 0 ɛ ) in der<br />
Schnittebene Σ t 0<br />
bezüglich des Punktes q 0 (0) durch<br />
d(t 0 ) = q u ɛ (t 0) − q s ɛ (t 0),<br />
90
wobei q u ɛ (t 0 ) = q u ɛ (t 0 , t 0 ) <strong>und</strong> q s ɛ(t 0 ) = q s ɛ(t 0 , t 0 ) die Punkte auf W u (p t 0 ɛ ) <strong>und</strong> W s (p t 0 ɛ ) sind,<br />
welche auf der Normalen<br />
f ⊥ (q 0 (0)) = (−f 2 (q 0 (0)), f 1 (q 0 (0))) T<br />
an den ungestörten homoklinen Orbit in q 0 (0) liegen. Siehe Abbildung 31.<br />
W<br />
u<br />
( p )<br />
ε<br />
p<br />
ε<br />
p<br />
0<br />
q<br />
s<br />
ε<br />
q<br />
u<br />
ε<br />
W<br />
s<br />
( )<br />
p ε<br />
f(q 0<br />
)<br />
Aus dem obigen Lemma folgt<br />
Abbildung 31: Berechnung der Melnikovfunktion.<br />
d(t 0 ) = ɛ f(q0 (0)) ∧ (q u 1 (t 0) − q s 1 (t 0))<br />
‖f(q 0 (0))‖<br />
+ O(ɛ 2 ).<br />
Dabei ist a∧b = a 1 b 2 −a 2 b 1 <strong>und</strong> f(q 0 (0))∧(q u 1 (t 0)−q s 1 (t 0)) die Projektion von (q u 1 (t 0)−q s 1 (t 0))<br />
auf f ⊥ (q 0 (0)).<br />
Um den Ausdruck d(t 0 ) berechnen zu können, definieren wir die Melnikovfunktion<br />
M(t 0 ) =<br />
∫ ∞<br />
−∞<br />
f(q 0 (t − t 0 )) ∧ g(q 0 (t − t 0 ), t)dt.<br />
Theorem 6.20 Wenn M(t 0 ) einfache Nullstellen besitzt, dann schneiden sich W u (p t 0 ɛ ) <strong>und</strong><br />
W s (p t 0 ɛ ), für ɛ > 0 hinreichend klein, transversal. Wenn M(t 0 ) von Null wegbeschränkt ist,<br />
gilt W u (p t 0 ɛ ) ∩ W s (p t 0 ɛ ) = ∅.<br />
Beweis: Wir definieren<br />
Wir erhalten<br />
∆(t, t 0 ) = f(q 0 (t − t 0 )) ∧ (q u 1 (t, t 0) − q s 1 (t, t 0))<br />
= ∆ u (t, t 0 ) − ∆ s (t, t 0 ).<br />
d<br />
dt ∆s (t, t 0 ) = Df(q 0 (t − t 0 )) ˙q 0 (t − t 0 ) ∧ q s 1(t, t 0 ) + f(q 0 (t − t 0 )) ∧ ˙q s 1(t, t 0 ).<br />
91
Aus<br />
<strong>und</strong> ˙q 0 = f(q 0 ) folgt<br />
Damit ergibt sich 6<br />
˙q s ɛ = ˙qs 0 + ɛ ˙qs 1 + O(ɛ2 ) = f(q 0 ) + ɛDf(q 0 )q s 1 + ɛg(q 0) + O(ɛ 2 )<br />
˙q s 1 (t, t 0) = Df(q 0 (t − t 0 ))q s 1 (t, t 0) + g(q 0 (t − t 0 ), t)<br />
d<br />
dt ∆s (t, t 0 ) = Df(q 0 )f(q 0 ) ∧ qs 1 + f(q 0) ∧ (Df(q 0 )q1 s + g(q 0, t))<br />
= (spurDf(q 0 ))∆ s + f(q 0 ) ∧ g(q 0 , t).<br />
Es gilt spurDf(q 0 ) = 0, da f ein Hamiltonsches Vektorfeld ist. Integrieren wir von t 0 bis ∞,<br />
erhalten wir<br />
∆ s (∞, t 0 ) − ∆ s (t 0 , t 0 ) =<br />
∫ ∞<br />
t 0<br />
f(q 0 (t − t 0 )) ∧ g(q 0 (t − t 0 ), t)dt.<br />
Es ist ∆ s (∞, t 0 ) = lim t→∞ f(q 0 (t − t 0 )) ∧ q1(t s − t 0 ). Da lim t→∞ q 0 (t − t 0 ) = p 0 , folgt<br />
lim t→∞ f(q 0 (t − t 0 )) = 0. Da gleichzeitig q1 s(t, t 0) beschränkt ist, folgt ∆ s (∞, t 0 ) = 0. Analog<br />
finden wir<br />
∆ u (∞, t 0 ) =<br />
∫ t0<br />
−∞<br />
Nach Definition von d(t 0 ) ergibt sich damit<br />
f(q 0 (t − t 0 )) ∧ g(q 0 (t − t 0 ), t)dt.<br />
d(t 0 ) = ɛM(t 0)<br />
‖f(q 0 (0)‖ + O(ɛ2 ).<br />
Da ‖f(q 0 (0))‖ unabhängig von ɛ ist, ist M(t 0 ) eine gute Approximation des Abstandes der<br />
Mannigfaltigkeiten in q 0 (0) auf Σ t 0<br />
Die Funktion M(t 0 ) erfüllt nach Konstruktion M(t 0 ) = M(t 0 + 2π). Wenn sie um Null oszilliert,<br />
müssen, für ɛ > 0 hinreichend klein, q u (t 0 ) <strong>und</strong> q s (t 0 ) bezüglich f ⊥ (q 0 (0)) ihre Orientierung<br />
ändern. Damit existiert ein τ ∈ [0, 2π) mit q u (τ) = q s (τ) <strong>und</strong> daher ein homokliner Punkt<br />
q ∈ W s (p τ ɛ ) ∩ W u (p τ ɛ ). Da alle Poincaré-Abbildungen äquivalent sind, müssen sich W u (p t 0 ɛ )<br />
<strong>und</strong> W s (p t 0 ɛ ) für alle t 0 ∈ [0, 2π) schneiden. Wenn die Nullstellen von M(t 0 ) einfach sind, sind<br />
auch die Nullstellen von d(t 0 ) einfach <strong>und</strong> der Schnitt der Mannigfaltigkeiten ist transversal. Ist<br />
M(t 0 ) von Null wegbeschränkt, kann für ɛ > 0 hinreichend klein, kein Schnitt vorliegen. □<br />
6<br />
(Ma) ∧ b + a ∧ (Mb) = (m 11 a 1 + m 12 a 2 )b 2 − (m 21 a 1 + m 22 a 2 )b 1 + a 1 (m 21 b 1 + m 22 b 2 ) − a 2 (m 11 b 1 + m 12 b 2 )<br />
= a 1 b 1 (−m 21 + m 21 ) + a 1 b 2 (m 11 + m 22 ) + a 2 b 1 (−m 11 − m 22 ) + a 2 b 2 (m 12 − m 12 )<br />
= (m 11 + m 22 )(a 1 b 2 − a 2 b 1 )<br />
= (spurM)(a ∧ b).<br />
92
Bemerkung 6.21 Durch die Koordinatentransformation t ↦→ t + t 0 erhalten wir die übliche<br />
Form<br />
M(t 0 ) =<br />
∫ ∞<br />
−∞<br />
f(q 0 (t)) ∧ g(q 0 (t), t + t 0 ).<br />
Dieses Integral kann numerisch recht gut berechnet werden, da q 0 (t) → p 0 für t → ±∞ mit<br />
einer exponentiellen Rate, d.h. f(q 0 (t)) → 0 mit einer exponentiellen Rate.<br />
Beispiel 6.22 Wir betrachten das zweidimensionale zeitlich periodische System<br />
˙u = v,<br />
˙v = u − u 3 + ɛ(γ cos ωt − δv).<br />
Dieses beschreibt eine nichtlineare Feder mit zeitlich periodischer Anregung mit Amplitude γ<br />
<strong>und</strong> Dämpfung δ. Für ɛ = 0 besitzt das System den hyperbolischen Fixpunkt (0, 0) <strong>und</strong> die<br />
Zentren (±1, 0). Als Hamiltonfunktion H finden wir<br />
H(u, v) = v2<br />
2 − u2<br />
2 + u4<br />
4<br />
Die Äquipotentialfläche H = 0 besteht aus zwei homoklinen Orbits Γ 0 + , Γ0 −<br />
p 0 = (0, 0). Wählen wir q± 0 = (± √ 2, 0), so ergibt sich<br />
<strong>und</strong> dem Punkt<br />
−∞<br />
∫ ∞<br />
q 0 + (t) = (√ 2 sech t, − √ 2 sech t tanh t),<br />
q 0 − (t) = −q0 + (t).<br />
Als Melnikovfunktion ergibt sich<br />
∫ ∞ (<br />
) (<br />
v 0 (t)<br />
0<br />
M(t 0 ) =<br />
∧<br />
u 0 (t) − (u 0 (t)) 3 γ cos ω(t + t 0 ) − δv 0 (t)<br />
=<br />
v 0 (t)[γ cos ω(t + t 0 ) − δv 0 (t)] dt<br />
)<br />
dt<br />
−∞<br />
= − √ 2γ<br />
∫ ∞<br />
sech t tanh t cos ω(t + t 0 ) dt − 2δ<br />
∫ ∞<br />
sech 2 t tanh 2 t dt.<br />
−∞<br />
Die Integrale können mit Hilfe des Residuensatzes berechnet oder einer Formelsammlung bestimmt<br />
werden. Es ergibt sich<br />
−∞<br />
M(t 0 ; γ, δ, ω) = − 4δ<br />
3 + √ 2γπω sech( πω 2 ) sin ωt 0.<br />
Ist<br />
| 4δ<br />
3 | < √ 2γπω sech( πω 2 ),<br />
so besitzt M(t 0 ) einfache Nullstellen <strong>und</strong> es liegt ein transversaler Schnitt der stabilen <strong>und</strong><br />
instabilen Mannigfaltigkeit vor.<br />
93
6.3 Silnikov-Chaos<br />
In diesem Abschnitt betrachten wir eine autonome dreidimensionale Differentialgleichung, in<br />
welcher eine homokline Trajektorie γ an einem Sattelpunkt mit komplexen Eigenwerten hängt.<br />
Siehe Abbildung 32.<br />
Abbildung 32: Das Silnikov-Beispiel.<br />
Die Eigenwerte seien durch λ ∈ R, ω, ¯ω ∈ C mit Imω ≠ 0 gegeben. Silnikov [Sil65] hat 1965<br />
folgendes gezeigt.<br />
Theorem 6.23 Wenn |Reω| < λ, dann kann der Fluß φ t so gestört werden, dass der gestörte<br />
Fluß ˜φ t einen homoklinen Orbit ˜γ nahe γ besitzt <strong>und</strong> die Wiederkehrabbildung (siehe unten)<br />
auf einer Teilmenge zur Smaleschen Hufeisenabbildung konjugiert ist.<br />
Beweisidee: Wir stören das Vektorfeld in der Nähe des Ursprungs so, dass ein lineares Vektorfeld<br />
⎛ ⎞ ⎛ ⎞ ⎛ ⎞<br />
ẋ α −β 0 x<br />
⎝ ẏ ⎠ = ⎝ β α 0 ⎠ ⎝ y ⎠ ; ω = α + iβ (19)<br />
ż 0 0 λ z<br />
vorliegt. Die Lösungen sind durch<br />
⎛ ⎞ ⎛<br />
x e αt ⎞<br />
((cos βt)x(0) − (sin βt)y(0))<br />
⎝ y ⎠ (t) = ⎝ e αt ((sin βt)x(0) + (cos βt)y(0)) ⎠ (20)<br />
z<br />
e λt z(0)<br />
gegeben. In der Nähe des Ursprungs wird die radiale Komponente r = √ x 2 + y 2 gedämpft,<br />
während |z| anwächst. Wir definieren zwei Flächen<br />
Σ 0 = {(x, y, z)|x 2 + y 2 = r 2 0 and 0 < z < z 1},<br />
Σ 1 = {(x, y, z)|x 2 + y 2 < r 2 0 and z = z 1 > 0}<br />
94
(x,y,z )<br />
1<br />
q<br />
q<br />
(r 0 θ ,z) p<br />
p<br />
Abbildung 33: Die Abbildungen ψ (links) <strong>und</strong> φ (rechts).<br />
<strong>und</strong> setzen voraus, dass Σ 0 <strong>und</strong> Σ 1 in dem Bereich liegen, wo der Fluß linear ist. Die Lösungen<br />
fließen von Σ 0 nach Σ 1 entsprechend Abbildung 33.<br />
Wir berechnen nun die Abbildung ψ : Σ 0 → Σ 1 , die einem Punkt a ∈ Σ 0 den ersten Durchstoßpunkt<br />
der dazugehörigen Lösung durch Σ 1 zuordnet. Dazu lösen wir z 1 = e λt z(0) nach t<br />
auf. Wir erhalten t = λ −1 ln(z 1 /z(0)) als Flugzeit von Σ 0 nach Σ 1 . Damit ergibt sich<br />
φ t (x, y, z) = (( z 1<br />
z )α/λ [(cos γ)x − (sin γ)y], ( z 1<br />
z )α/λ [(sin γ)x + (cos γ)y], z 1 ),<br />
wobei γ = βλ −1 ln(z 1 /z). Mit x = r 0 cos θ <strong>und</strong> y = r 0 sin θ erhalten wir eine zweidimensionale<br />
Abbildung ψ die den Koordinaten θ, z in Σ 0 die Koordinaten x, y in Σ 1 zuweist, genauer<br />
ψ(θ, z) = (r 0 ( z 1<br />
z )α/λ cos(θ + γ), r 0 ( z 1<br />
z )α/λ sin(θ + γ))<br />
= (ψ 1 (θ, z), ψ 2 (θ, z))<br />
Die Abbildung ψ bildet vertikale Abschnitte θ = const. aus Σ 0 in eine logarithmische Spirale<br />
in Σ 1 ab. Um die Streckung <strong>und</strong> Kontraktion der Abbildungen zu sehen, berechnen wir die<br />
Ableitung zu<br />
Diese kann als<br />
Dψ(θ, z) =<br />
Dψ(θ, z) = r 0 ( z (<br />
1 cos γ<br />
z )α/λ sin γ<br />
( ∂ψ1<br />
∂θ<br />
∂ψ 2<br />
∂θ<br />
∂ψ 1<br />
∂z<br />
∂ψ 2<br />
∂z<br />
)<br />
.<br />
) ( − sin γ − sin θ<br />
−α cos θ+β sin θ<br />
)<br />
λz<br />
cos γ − cos θ<br />
geschrieben werden. Damit ergibt sich<br />
( )<br />
αr0 2 det(Dψ) =<br />
z2α/λ 1<br />
z −(1+2α/λ) ,<br />
λ<br />
95<br />
−α sin θ−β cos θ<br />
λz
d.h. für z hinreichend klein, werden die Gebiete verkleinert, wenn 2α < −λ. Nach Voraussetzung<br />
gilt −1 < α/λ < 0 <strong>und</strong> damit werden vertikale Streifen nach obiger Formel gestreckt.<br />
Wir definieren nun eine Abbildung φ, welche eine Umgebung um q über die homokline Lösung<br />
wieder in<br />
˜Σ 0 = {(x, y, z) | x 2 + y 2 = r 2 0, |z| < z 0 }<br />
transportiert. Siehe Abbildung 33. Die Wiederkehrabbildung definieren wir durch durch φ ◦ ψ<br />
für alle Punkte r ∈ Σ 0 mit φ(ψ(r))∈Σ 0 . O.B.d.A. liege p auf der x-Achse, d.h. θ = 0. Definiere<br />
dann<br />
V = { (r, θ, z) | r = r 0 , |θ| ≤ δ, 0 < z < ɛ }.<br />
Wähle W wie in Abbildung 34. Damit haben wir in der Wiederkehrabbildung eine Smalesche<br />
φ(ψ( W)<br />
W<br />
z<br />
p<br />
θ<br />
Hufeisenabbildung gef<strong>und</strong>en.<br />
Abbildung 34: Die Hufeisen-Abbildung im Silnikov-Beispiel.<br />
Bemerkung 6.24 Nach der obigen Konstruktion ist klar, dass abzählbar viele Hufeisenabbildungen<br />
gef<strong>und</strong>en werden können.<br />
6.4 Der Lorenz-Attraktor<br />
Das vom Meteorologen Edward Lorenz [Lor63] aufgestellte Differentialgleichungssystem<br />
ẋ = σ(y − x),<br />
ẏ = ρx − y − xz,<br />
ż = −bz + xy,<br />
mit Parametern ρ = 27, σ = 10 <strong>und</strong> b = 2.66666 sollte ein einfaches Wettermodell darstellen.<br />
Numerische Untersuchungen mittels eines Analogrechners führten zur Feststellung, dass eine<br />
sensitive Abhängigkeit der Lösungen von den Anfangsbedingungen vorliegt.<br />
96
Wir wollen nun eine kurze Zusammenfassung des Bifurkationsszenarios dieser Gleichung geben<br />
<strong>und</strong> so das Zustandekommen des chaotischen Verhaltens untersuchen. Siehe [GH83]. Wir<br />
wählen den Parameter ρ als Bifurkationsparameter. <strong>und</strong> stellen fest, dass die z-Achse eine invariante<br />
Menge ist <strong>und</strong> dass die Symmetrie (x, y, z) ↦→ (−x, −y, z) vorliegt. Für ρ < 1 ist der<br />
Ursprung stabil. Jede Lösung konvergiert letztendlich in den Ursprung. Es existiert eine Lyapunovfunktion,<br />
welche auch den Nachweis einer absorbierenden Menge für ρ > 1 erlaubt. Bei<br />
ρ = 1 überquert ein reeller Eigenwert die imaginäre Achse, was wegen der Symmetrie zu einer<br />
superkritischen Pitchforkbifurkation führt, d.h. zwei stabile Fixpunkte verzweigen aus dem<br />
Ursprung.<br />
Diese sind stabil bis zu einem Wert ρ = ρ Hopf ≈ 24.74. Hier findet eine superkritische Hopfbifurkation<br />
statt, d.h. es verzweigen instabile periodische Lösungen, womit die lokale Bifurkationsanalyse<br />
für ρ > ρ Hopf zu keiner stabilen Lösung mehr führt. Numerische Untersuchungen<br />
ergeben, dass für ρ > 24.06 mit dem Lorenzattraktor eine weitere invariante stabile Menge<br />
existiert.<br />
Sie ist das Produkt einer homoklinen Explosion beim Wert ρ ≈ 13.926, d.h. das Produkt einer<br />
globalen Bifurkation.<br />
Diese kommt wie folgt zustande. Die zwei Äste S 1 <strong>und</strong> S 2 der instabilen Mannigfaltikeit des<br />
Ursprungs sind jeweils mit den dreidimensionalen stabilen Mannigfaltigkeiten der bei ρ = 1<br />
verzweigenden Fixpunkte x 1 <strong>und</strong> x 2 verb<strong>und</strong>en. Bei ρ ≈ 13.926 wechselt der Ast S 1 von x 1<br />
zu x 2 <strong>und</strong> der Ast S 2 von x 2 zu x 1 . Im Bifurkationspunkt sind die zwei Äste S 1 <strong>und</strong> S 2 mit<br />
der zweidimensionalen stabilen Mannigfaltigkeit des Ursprungs verb<strong>und</strong>en, d.h. es liegen zwei<br />
homokline Verbindungen vor. Dieser Vorgang führt erneut zu komplizierter Dynamik <strong>und</strong> dem<br />
Auftreten chaotischen Verhaltens. Wir sprechen von einer homoklinen Explosion [Wig88].<br />
Der Nachweis, dass diese dann ab ρ ≈ 24.06 attraktive Menge tatsächlich chaotische Dynamik<br />
enthält, gelang erst vor kurzem mittels eines computerunterstützten Beweises [Tuc02].<br />
97
Literatur<br />
[Ama83] Herbert Amann. Gewöhnliche <strong>Differentialgleichungen</strong>. de Gruyter Lehrbuch. [de<br />
Gruyter Textbook]. Walter de Gruyter & Co., Berlin, 1983.<br />
[Arn73]<br />
[Arn91]<br />
[CG93]<br />
[CH82]<br />
[CL55]<br />
[DB94]<br />
[Dev89]<br />
[GH83]<br />
[GS85]<br />
Ludwig Arnold. Stochastische <strong>Differentialgleichungen</strong>. R. Oldenbourg Verlag, Munich,<br />
1973. Theorie <strong>und</strong> Anwendung.<br />
V.I. Arnol’d. Gewoehnliche <strong>Differentialgleichungen</strong>. Hochschulbuecher fuer Mathematik,<br />
83. Berlin: Deutscher Verlag der Wissenschaften., 1991.<br />
Lennart Carleson and Theodore W. Gamelin. Complex dynamics. Universitext: Tracts<br />
in Mathematics. Springer-Verlag, 1993.<br />
Shui Nee Chow and Jack K. Hale. Methods of bifurcation theory, volume 251 of<br />
Gr<strong>und</strong>lehren der Mathematischen Wissenschaften [F<strong>und</strong>amental Principles of Mathematical<br />
Science]. Springer-Verlag, New York, 1982.<br />
E. A. Coddington and N. Levinson. Theory of ordinary differential equations. New<br />
York, Toronto, London: McGill-Hill Book Company, Inc. XII, 1955.<br />
Peter Deuflhard and Folkmar Bornemann. Numerische Mathematik. II. de Gruyter<br />
Lehrbuch. [de Gruyter Textbook]. Walter de Gruyter & Co., Berlin, 1994. Integration<br />
gewöhnlicher <strong>Differentialgleichungen</strong>. [Integration of ordinary differential equations].<br />
Robert L. Devaney. An introduction to chaotic dynamical systems. Addison-Wesley<br />
Publishing Company, 1989.<br />
J. Guckenheimer and Ph. Holmes. Nonlinear oscillations, dynamical systems, and<br />
bifurcations of vector fields. Applied Mathematical Sciences, 42, Springer, New York,<br />
1983.<br />
Martin Golubitsky and David G. Schaeffer. Singularities and groups in bifurcation<br />
theory. Vol. I, volume 51 of Applied Mathematical Sciences. Springer-Verlag, New<br />
York, 1985.<br />
[GSS88] Martin Golubitsky, Ian Stewart, and David G. Schaeffer. Singularities and groups in<br />
bifurcation theory. Vol. II, volume 69 of Applied Mathematical Sciences. Springer-<br />
Verlag, New York, 1988.<br />
[Hal88]<br />
[Hen81]<br />
Jack K. Hale. Asymptotic behavior of dissipative systems, volume 25 of Mathematical<br />
Surveys and Monographs. American Mathematical Society, Providence, RI, 1988.<br />
D. Henry. Geometric Theory of Semilinear Parabolic Equations. Springer Lecture<br />
Notes in Mathematics, Vol. 840, 1981.<br />
98
[Ise96]<br />
[Kel67]<br />
[KK74]<br />
[Kre85]<br />
Arieh Iserles. A first course in the numerical analysis of differential equations. Cambridge<br />
Texts in Applied Mathematics. Cambridge University Press, Cambridge, 1996.<br />
A. Kelley. The stable, center-stable, center-unstable, unstable manifolds. J. Diff. Eq.,<br />
3:546–570, 1967.<br />
H. W. Knobloch and F. Kappel. Gewöhnliche <strong>Differentialgleichungen</strong>. B. G. Teubner,<br />
Stuttgart, 1974. Mathematische Leitfäden.<br />
Ulrich Krengel. Ergodic theorems. De Gruyter Studies in Mathematics 6. Berlin-New<br />
York: Walter de Gruyter. VIII, 1985.<br />
[Lor63] E.N. Lorenz. Deterministic non-periodic flow. J. Atmos. Sci., 1963.<br />
[Man91] Benoit B. Mandelbrot. Die fraktale Geometrie der Natur. Birkhaeuser, 1991.<br />
[Mil99]<br />
John Milnor. Dynamics in one complex variable. Introductory lectures. Vieweg.,<br />
1999.<br />
[Oks98] Bernt Oksendal. Stochastic differential equations. Universitext. Springer-Verlag,<br />
Berlin, fifth edition, 1998. An introduction with applications.<br />
[Pal82]<br />
[Pea90]<br />
[PR86]<br />
[RT71]<br />
Welington Palis, Jacob jun.; de Melo. Geometric theory of dynamical systems. An<br />
introduction. Springer-Verlag, 1982.<br />
G. Peano. Démonstration de l’integrabilité des équations différentielles ordinaires.<br />
Math. Annal., 37, 1890.<br />
H.-O. Peitgen and P.H. Richter. The beauty of fractals. Images of complex dynamical<br />
systems. Springer-Verlag, 1986.<br />
David Ruelle and Floris Takens. On the nature of turbulence. Commun. Math. Phys.,<br />
20:167–192, 1971.<br />
[SH96] A. M. Stuart and A. R. Humphries. Dynamical systems and numerical analysis,<br />
volume 2 of Cambridge Monographs on Applied and Computational Mathematics.<br />
Cambridge University Press, Cambridge, 1996.<br />
[Sil65]<br />
L. P. Sil’nikov. A case of the existence of a denumerable set of periodic motions.<br />
Dokl. Akad. Nauk SSSR, 160:558–561, 1965.<br />
[SU03] G. Schneider and H. Uecker. Chaos <strong>und</strong> Fraktale, Vorlesungsskript, WS 2002/2003.<br />
2003.<br />
[Tem97] Roger Temam. Infinite-dimensional dynamical systems in mechanics and physics,<br />
volume 68 of Applied Mathematical Sciences. Springer-Verlag, New York, second<br />
edition, 1997.<br />
99
[Tuc02]<br />
[Van89]<br />
[Ver96]<br />
[Wal82]<br />
[Wig88]<br />
Warwick Tucker. A rigorous ODE solver and Smale’s 14th problem. Fo<strong>und</strong>. Comput.<br />
Math., 2(1):53–117, 2002.<br />
A. Vanderbauwhede. Centre manifolds, normal forms and elementary bifurcations. In<br />
Dynamics reported, Vol. 2, volume 2 of Dynam. Report. Ser. Dynam. Systems Appl.,<br />
pages 89–169. 1989.<br />
Ferdinand Verhulst. Nonlinear differential equations and dynamical systems. Universitext.<br />
Springer-Verlag, Berlin, second edition, 1996. Translated from the 1985<br />
Dutch original.<br />
Peter Walters. An introduction to ergodic theory. Graduate Texts in Mathematics,<br />
Vol. 79. New York - Heidelberg -Berlin: Springer-Verlag. IX, 1982.<br />
Stephen Wiggins. Global bifurcations and chaos. Analytical methods. Applied Mathematical<br />
Sciences, 73. New York etc.: Springer-Verlag., 1988.<br />
100