19.11.2013 Aufrufe

Gew¨ohnliche Differentialgleichungen und Dynamische Systeme

Gew¨ohnliche Differentialgleichungen und Dynamische Systeme

Gew¨ohnliche Differentialgleichungen und Dynamische Systeme

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

Gewöhnliche <strong>Differentialgleichungen</strong><br />

<strong>und</strong><br />

<strong>Dynamische</strong> <strong>Systeme</strong><br />

Vorlesungsskript 1 2<br />

Prof. Dr. Guido Schneider<br />

Mathematisches Institut I<br />

Universität Karlsruhe<br />

Sommersemester 2004<br />

1 Dies ist bislang nur ein Entwurf, welcher noch zahlreiche Fehler enthält. Diese Inhaltsangabe kann <strong>und</strong> soll<br />

kein Ersatz zum Studium existierender Literatur sein.<br />

2 mit Ergänzungen von Dr. Hannes Uecker


Zusammenfassung<br />

Im Mittelpunkt der Vorlesung steht das qualitative Verhalten der Lösungen gewöhnlicher<br />

<strong>Differentialgleichungen</strong> <strong>und</strong> allgemeiner von <strong>Dynamische</strong>n <strong>Systeme</strong>n. Es wird erklärt werden,<br />

wieso es prinzipiell unmöglich ist, trotz immer besserer Rechner, gute Langzeitwettervorhersagen<br />

zu machen oder wieso nahezu identische Klimamodelle zu unterschiedlichsten<br />

Ergebnissen führen. Dazu wird der Begriff des chaotischen <strong>Dynamische</strong>n Systems<br />

definiert <strong>und</strong> zahlreiche niedrigdimensionale Beispiele werden untersucht. Es werden Wege<br />

ins Chaos, wie Periodenverdopplung oder homokline Explosionen vorgestellt. Weitere<br />

Themen sind: Existenz <strong>und</strong> Eindeutigkeit der Lösungen, Lineare <strong>Systeme</strong> mit konstanten<br />

<strong>und</strong> periodischen Koeffizienten, Stabilität <strong>und</strong> Instabilität von Fixpunkten <strong>und</strong> periodischen<br />

Lösungen, Verzweigungstheorie <strong>und</strong> der Zentrumsmannigfaltigkeitensatz, stabile<br />

<strong>und</strong> instabile Mannigfaltigkeiten, homokline <strong>und</strong> heterokline Lösungen, Satz von der Begradigung,<br />

Gradientensysteme, omega-Limesmengen, Melnikov-Chaos, Silnikov-Chaos,<br />

der Lorenzattraktor.<br />

2


Inhaltsverzeichnis<br />

1 Einleitung 4<br />

2 Lineare <strong>Systeme</strong> <strong>und</strong> Strukturen 8<br />

2.1 Bezeichnungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8<br />

2.2 Lineare <strong>Systeme</strong> . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9<br />

2.2.1 Allgemeine Betrachtungen . . . . . . . . . . . . . . . . . . . . . . . . 9<br />

2.2.2 Der Lösungsoperator S(t, s) . . . . . . . . . . . . . . . . . . . . . . . 11<br />

2.2.3 Die Variation der Konstanten Formel . . . . . . . . . . . . . . . . . . 11<br />

2.2.4 Die Exponentialmatrix . . . . . . . . . . . . . . . . . . . . . . . . . . 12<br />

2.2.5 Ebene <strong>Systeme</strong> . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14<br />

2.3 Strukturen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16<br />

2.3.1 Stabilität . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16<br />

2.3.2 Invariante Mengen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18<br />

2.3.3 Symmetrien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20<br />

2.4 Lineare <strong>Systeme</strong> mit periodischen Koeffizienten . . . . . . . . . . . . . . . . . 20<br />

3 Nichtlineare <strong>Systeme</strong> 25<br />

3.1 Existenz <strong>und</strong> Eindeutigkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25<br />

3.2 Numerik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30<br />

4 Asymptotische Stabilität 36<br />

4.1 Fixpunkte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36<br />

4.2 Bifurkation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40<br />

4.3 Intervallabbildungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44<br />

4.4 Bemerkungen zu Iterationen in der komplexen Ebene . . . . . . . . . . . . . . 55<br />

4.5 Periodische Lösungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57<br />

5 Dynamik in der Nähe eines Fixpunktes 63<br />

5.1 Der Satz von Hartman-Grobman . . . . . . . . . . . . . . . . . . . . . . . . . 63<br />

5.2 Stabile, Instabile Mannigfaltigkeiten . . . . . . . . . . . . . . . . . . . . . . . 65<br />

5.3 Die Zentrumsmannigfaltigkeit <strong>und</strong> Normalformen . . . . . . . . . . . . . . . . 68<br />

6 Homokline <strong>und</strong> heterokline Lösungen 81<br />

6.1 ω-Limesmengen, Ebene <strong>Systeme</strong>, Gradientensysteme . . . . . . . . . . . . . . 81<br />

6.2 Melnikov-Chaos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84<br />

6.3 Silnikov-Chaos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94<br />

6.4 Der Lorenz-Attraktor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96<br />

3


1 Einleitung<br />

Unter einer Gewöhnlichen Differentialgleichung verstehen wir eine Relation<br />

ẋ = f(x, t) (1)<br />

mit x = x(t) ∈ R d <strong>und</strong> f : U × I ⊂ R d × R → R d mit U offen <strong>und</strong> I ein Intervall. Die Variable<br />

t ∈ I wird als die Zeit bezeichnet. Der Raum R d heißt der Phasenraum.<br />

Ist f stetig in U × I, so heißt eine stetig differenzierbare Funktion x : Ĩ ⊂ I → Rd , welche (1)<br />

erfüllt, Lösung der Gewöhnlichen Differentialgleichung im Intervall Ĩ.<br />

Für lokal Lipschitz-stetiges f ist die lokale Existenz <strong>und</strong> Eindeutigkeit der Lösungen von (1)<br />

wohlbekannt.<br />

Theorem 1.1 (Satz von Picard-Lindelöf [KK74]) Für gegebenes x 0 ∈ R d <strong>und</strong> t 0 ∈ R sei<br />

die Funktion f auf der Menge Q = {(x, t) | |t − t 0 | ≤ α, ‖x − x 0 ‖ R d ≤ β} stetig in t <strong>und</strong><br />

Lipschitz-stetig in x, d.h. es gibt ein L > 0 so dass<br />

‖f(x 1 , t) − f(x 2 , t)‖ R d ≤ L‖x 1 − x 2 ‖ R d<br />

für alle (x j , t) ∈ Q, (j = 1, 2). Weiter möge mit M = max (x,t)∈Q ‖f(x, t)‖ R d die Beziehung<br />

αM ≤ β gelten.<br />

Dann existiert eine eindeutige auf [t 0 − α, t 0 + α] definierte Lösung x = x(t) der Gewöhnlichen<br />

Differentialgleichung (1) mit x| t=t0 = x 0 .<br />

Wir wollen in den ersten beiden Kapiteln voraussetzen, dass dieser Satz gilt <strong>und</strong> diesen erst in<br />

Kapitel 3.1 beweisen.<br />

Für die Lösung x zum Zeitpunkt t mit der Anfangsbedingung x| t=t0 = x 0 schreiben wir im<br />

folgenden x = x(t, t 0 , x 0 ).<br />

Ist die Differentialgleichung (1) autonom, d.h. hängt f nur von x ∈ R d , d.h. f = f(x), so ist x<br />

eine Funktion von t − t 0 <strong>und</strong> nicht von t <strong>und</strong> t 0 .<br />

Lemma 1.2 Für autonome <strong>Differentialgleichungen</strong> (1) ist mit x = x(t, t 0 , x 0 ) auch x = x(t −<br />

s, t 0 − s, x 0 ) für alle s ∈ R eine Lösung von (1).<br />

Beweis: Folgt sofort durch Einsetzen.<br />

Damit können wir für autonome <strong>Differentialgleichungen</strong> stets t 0<br />

abkürzend x = x(t, x 0 ) für x(t, 0, x 0 ).<br />

Es gilt<br />

}<br />

i) x(0, x 0 ) = x 0 ,<br />

ii) x(t + s, x 0 ) = x(t, x(s, x 0 )).<br />

□<br />

= 0 wählen <strong>und</strong> schreiben<br />

(2)<br />

4


Im nichtautonomen Fall lautet dies<br />

i) x(t, t, x 0 ) = x 0 ,<br />

ii) x(t + s + t 0 , t 0 , x 0 ) = x(t + s + t 0 , s + t 0 , x(s + t 0 , t 0 , x 0 )).<br />

}<br />

(3)<br />

Im folgenden interessieren wir uns weniger dafür, unter welchen Voraussetzungen an f Lösungen<br />

von (1) existieren, als vielmehr für die Frage nach dem qualitativen Verhalten der Lösungen<br />

bei hinreichend glattem f. 3<br />

Heute ist die Theorie der Gewöhnlichen <strong>Differentialgleichungen</strong> ein wichtiger Teil der Theorie<br />

der <strong>Dynamische</strong>n <strong>Systeme</strong>. Unter einem <strong>Dynamische</strong>n System verstehen wir eine einparametrige<br />

Abbildung<br />

{<br />

I × X → X<br />

x :<br />

(4)<br />

(t, x 0 ) ↦→ x(t, x 0 )<br />

einer Menge X (der Phasenraum) in sich mit I = R (kontinuierliches D.S.) oder I = N (diskretes<br />

D.S.), welche (2) erfüllt. Gewöhnliche <strong>Differentialgleichungen</strong> gestatten Entwicklungsprozesse<br />

zu untersuchen, die determiniert, endlichdimensional <strong>und</strong> differenzierbar sind.<br />

<strong>Dynamische</strong> <strong>Systeme</strong> finden sich fast überall in der Natur. Beispiele sind:<br />

a) Mechanische <strong>Systeme</strong>: Ein Teilchen mit dem Ortsvektor x(t) ∈ R d , (d = 1, 2, 3) der Masse<br />

m bewegt sich im Kraftfeld F (x). Die Abbildungsvorschrift wird durch die gewöhnliche Differentialgleichung<br />

mẍ = F (x) definiert. Schreiben wir dies in der Form (1), so sehen wir, dass<br />

der Phasenraum durch (x, ẋ) ∈ R 2d gegeben ist.<br />

b) der Aktienkurs einer Firma oder die Bewegung eines Moleküls in einer Flüssigkeit: Ein<br />

Molekül am Ort x(t) ∈ R d bewegt sich unter einer äußeren Kraft f(x) <strong>und</strong> stochastischen<br />

Störungen g(x)ξ(t), d.h. ẋ = f(x) + g(x)ξ(t), bzw. in der Schreibweise der stochastischen<br />

<strong>Differentialgleichungen</strong><br />

dx = f(x)dt + g(x)dW (t),<br />

wobei formal die zeitliche Ableitung des (i.a nur stetigen) Wienerprozesses W (t) das weiße<br />

Rauschen ξ(t) ergibt. Siehe [Arn73, Oks98].<br />

c) die Strömung einer Flüssigkeit: Das Geschwindigkeitsfeld U(x, t) ∈ R 3 am Ort x ∈ Ω ⊂<br />

R 3 zum Zeitpunkt t einer strömenden Flüssigkeit wird beschrieben durch die Navier-Stokes-<br />

Gleichungen, eine partielle Differentialgleichung,<br />

∂ t U = ν∆U − ∇p − (U · ∇)U, (ν ≥ 0),<br />

div U = 0,<br />

U| ∂Ω = 0.<br />

3 Der Satz von Peano [Pea90] garantiert bei stetigem f die Existenz von Lösungen von (1). Die Eindeutigkeit<br />

der Lösungen kann in diesem Fall nicht erwartet werden. Der Beweis beruht auf einem Fixpunktargument für<br />

kompakte Abbildungen.<br />

5


Als Phasenraum kann zum Beispiel<br />

X = {U : Ω → R 3 | U| ∂Ω = 0, div U = 0,<br />

∑ 2 ∑<br />

∫<br />

j=0 j 1 ,j 2 ,j 3 ≥0;j 1 +j 2 +j 3 =j Ω |∂j 1<br />

x 1<br />

∂ j 2<br />

x 2<br />

∂ j 3<br />

x 3<br />

U| 2 dx < ∞}<br />

dienen. Siehe [Hen81, Tem97].<br />

d) Populationsdynamik: Die fortpflanzungsfähige Population x(t) hängt vom Wert x(t − d),<br />

d > 0 fest, ab, d.h. die Abbildungsvorschrift ist eine Delay-Gleichung [Hal88]<br />

ẋ = f(t, x(t − d)).<br />

Als Phasenraum dient z.B. der Raum X = C([0, d], R).<br />

e) Dynamik in C: Wit betrachten die Iteration z n+1 = zn 2 + c, z 0 = 0 mit z j , c ∈ C. Die<br />

Mandelbrotmenge ist durch<br />

M = {c ∈ C | (z n ) n∈N<br />

bleibt beschränkt}<br />

gegeben. Diese Menge ist wie die Juliamenge ein Fraktal ([Man91, PR86]) <strong>und</strong> weist keine<br />

ganzzahlige Dimension auf.<br />

Die Beispiele a)-d) sind kontinuierliche <strong>Dynamische</strong> <strong>Systeme</strong>. Im Fall c) <strong>und</strong> d) sind die Phasenräume<br />

unendlichdimensional. Eine Diskretisierung zur numerischen Behandlung obiger Beispiele<br />

oder eine andere Modellbildung führt auf diskrete <strong>Dynamische</strong> <strong>Systeme</strong> der Form<br />

x n+1 = F (x n , n),<br />

wie im Beispiel e). Solche Abbildungen spielen auch bei der Untersuchung periodischer Lösungen<br />

eine wichtige Rolle. In den obigen Beispielen spielt die metrische Struktur des Phasenraumes<br />

die wichtige Rolle. Wird der Phasenraum als Maßraum verstanden, so spricht man von<br />

Ergodentheorie [Kre85, Wal82]. Dies erlaubt es, komplizierte Dynamik, wie z.B. die Bewegung<br />

von Molekülen in Gasen durch statistische Größen wie z.B. dem Druck zu erfassen. 4<br />

4 Der Birkhoffsche Ergodensatz erlaubt es dann zeitliche Mittelungen durch räumliche Mittelungen zu ersetzen.<br />

6


Geschichte: Die Beschreibung der Mechanik durch <strong>Differentialgleichungen</strong> war eine der wesentlichen<br />

Motivationen zur Erfindung der Differential- <strong>und</strong> Integralrechnung (Newton 1643-<br />

1727, Leibniz 1646-1716). Die Untersuchung Gewöhnlicher <strong>Differentialgleichungen</strong> als <strong>Dynamische</strong>s<br />

System wird durch die Arbeiten von Poincaré 1854-1912 geprägt. Die Untersuchung<br />

gewöhnlicher <strong>Differentialgleichungen</strong> Dies ist <strong>und</strong> bleibt aktuell, da jede räumliche Diskretisierung<br />

Partieller <strong>Differentialgleichungen</strong> auf Gewöhnliche <strong>Differentialgleichungen</strong> führt. Die<br />

Untersuchung dynamischer <strong>Systeme</strong> ist hochaktuell durch die Entdeckungen chaotischer Dynamik<br />

in niedrigdimensionalen <strong>Systeme</strong>n, wie dem Lorenzattraktor [Lor63], oder der Periodenverdopplung<br />

als universellem Weg ins Chaos.<br />

Für einen historischen Hintergr<strong>und</strong> siehe auch<br />

http://www.math-net.de/links/show?collection=math.museum.hist.math<br />

Phaseplane: Um das Lösungsverhalten gewöhnlicher <strong>Differentialgleichungen</strong> numerisch zu<br />

veranschaulichen, benutzen wir das Programmpaket Phaseplane bzw. XPP, für welches die Dateien<br />

direkt in Pittsburgh von B. Ermentrouts Homepage http://www.pitt.edu/˜phase/<br />

herunter geladen werden können.<br />

Literatur: Die Vorlesung basiert auf den Lehrbüchern [GH83, KK74, Ver96]. Weitere hier<br />

verwendete Lehrbücher zu Gewöhnliche <strong>Differentialgleichungen</strong> sind [Ama83, Arn91, CL55,<br />

Hal88].<br />

7


2 Lineare <strong>Systeme</strong> <strong>und</strong> Strukturen<br />

Lineare <strong>Systeme</strong><br />

ẋ = A(t)x + g(t) (5)<br />

spielen eine wichtige Rolle in der Theorie der Gewöhnlichen <strong>Differentialgleichungen</strong>. Dabei ist<br />

• x = x(t) = (x 1 (t), . . . , x d (t)) T ∈ R d .<br />

• A = A(t) ∈ R d×d eine d × d-Matrix mit Komponenten a ij (t).<br />

• g = g(t) = (g 1 (t), . . . , g d (t)) T ∈ R d eine Inhomogenität.<br />

• t ∈ (α 0 , β 0 ) = I 0 ⊂ R mit −∞ ≤ α 0 < β 0 ≤ ∞.<br />

Die lineare Differentialgleichung (5) heißt homogen, falls g(t) ≡ 0, d.h.<br />

ẋ = A(t)x (6)<br />

Wir setzen voraus, dass A <strong>und</strong> g im folgenden stetig von t ∈ I 0 abhängen sollen.<br />

Wir zeigen, dass die Lösungen von (5) einen d-dimensionalen affinen Raum <strong>und</strong> die Lösungen<br />

von (6) einen d-dimensionalen Vektorraum bilden.<br />

Neben der Untersuchung linearer <strong>Systeme</strong> mit a) konstanten Koeffizienten, welche explizit<br />

gelöst werden können, interessieren wir uns für <strong>Systeme</strong> mit b) periodischen Koeffizienten<br />

(Floquet-Theorie). Für <strong>Systeme</strong>, welche c) asymptotisch gegen den konstanten Koeffizientenfall<br />

konvergieren, verweisen wir auf die Literatur über exponentielle Dichotomien.<br />

Diese Untersuchungen sind wichtig für den nichtlinearen Fall, da in zahlreichen Fällen die Stabilität<br />

eines Fixpunktes (Fall a)) oder einer periodischen Lösung (Fall b)) unter Störungen allein<br />

durch das Verhalten der dazugehörigen Linearisierung beantwortet werden kann. Siehe Kapitel<br />

4. Der Fall c) taucht bei der Linearisierung um homokline oder heterokline Lösungen auf <strong>und</strong><br />

spielt bei der Untersuchung chaotischen Verhaltens eine gewisse Rolle.<br />

Ein weiteres Ziel ist es erste Bekanntschaft mit Begriffen <strong>und</strong> Strukturen, wie z.B. Stabilität,<br />

Symmetrien oder Lyapunovfunktionen zu machen.<br />

2.1 Bezeichnungen<br />

Sei X ein reeller oder komplexer Vektorraum. Eine Abbildung<br />

‖ · ‖ :<br />

{<br />

X → R<br />

x ↦→ ‖x‖<br />

heißt Norm, wenn für alle x, y ∈ X <strong>und</strong> λ ∈ R(C) gilt<br />

i) ‖x‖ ≥ 0 <strong>und</strong> ‖x‖ = 0 genau dann wenn x = 0<br />

8


ii) ‖λx‖ = |λ|‖x‖<br />

iii) ‖x + y‖ ≤ ‖x‖ + ‖y‖<br />

Im R d werden meist verwendet:<br />

Die l 1 -Norm ‖x‖ 1 = ∑ d<br />

j=1 |x j|, die euklidische Norm oder l 2 -Norm ‖x‖ 2 = (x T x) 1/2 =<br />

( ∑ d<br />

j=1 |x j| 2 ) 1/2 <strong>und</strong> die l ∞ , Supremums- oder Maximumsnorm ‖x‖ ∞ = sup j=1,...,d |x i |.<br />

Wir bemerken, dass im R d bzw. in C d alle Vektornormen äquivalent sind, d.h. für je zwei Vektornormen<br />

‖ · ‖ <strong>und</strong> ‖ · ‖˜gibt es α, β > 0, so dass für alle x ∈ R d (C d ) gilt<br />

α‖x‖ ≤ ‖x‖˜ ≤ β‖x‖.<br />

Die d × d-Matrizen bilden einen Vektorraum der Dimension d 2 . Sie bilden mit der zusätzlichen<br />

Multiplikationsstruktur A · B eine Algebra. Alle im folgenden auftretenden Matrixnormen<br />

erfüllen<br />

‖A · B‖ ≤ ‖A‖ ‖B‖,<br />

d.h. die Matrizen bilden bezüglich der Multiplikation eine Banachalgebra. Eine wichtige Matrixnorm<br />

ist durch<br />

{ }<br />

‖Ax‖<br />

‖A‖ ∗ = sup<br />

‖x‖ | x ∈ Rd /{0}<br />

gegeben. Matrixnorm <strong>und</strong> Vektornorm heißen verträglich, wenn<br />

‖Ax‖ ≤ ‖A‖ ‖x‖. (gilt für ‖ · ‖ ∗ ).<br />

Beispiele verträglicher Vektor <strong>und</strong> Matrixnormen sind<br />

‖ · ‖ = ‖ · ‖ 1 , ‖A‖ ∗ = sup<br />

k=1,...,d<br />

‖ · ‖ = ‖ · ‖ 2 , ‖A‖ ∗ = (<br />

d∑<br />

|a jk |<br />

j=1<br />

d∑<br />

|a jk | 2 ) 1/2<br />

i,j=1<br />

‖ · ‖ = ‖ · ‖ ∞ , ‖A‖ ∗ = sup<br />

j=1,...,d<br />

d∑<br />

|a jk |.<br />

k=1<br />

Weiter gilt<br />

∫ t ∫ t<br />

‖ x(τ)dτ‖ ≤ ‖x(τ)‖dτ.<br />

t 0 t 0<br />

Im folgenden verwenden wir stets verträgliche Normen.<br />

2.2 Lineare <strong>Systeme</strong><br />

2.2.1 Allgemeine Betrachtungen<br />

Die rechte Seite von (5) ist Lipschitz-stetig, denn es gilt<br />

‖(A(t)x + g(t)) − (A(t)y + g(t))‖ = ‖A(t)(x − y)‖ ≤ ‖A(t)‖‖(x − y)‖.<br />

9


Damit kann für global stetiges g <strong>und</strong> A die globale Existenz- <strong>und</strong> Eindeutigkeit der Lösungen<br />

von (5) nachgewiesen werden.<br />

Theorem 2.1 (5) besitzt für jedes (x 0 , t 0 ) ∈ R d × I 0 genau eine Lösung x(t) = x(t, t 0 , x 0 ) mit<br />

x(t 0 ) = x 0 . Diese Lösung existiert auf ganz I 0 <strong>und</strong> ist dort stetig differenzierbar.<br />

Beweis: Später in Kapitel 3.1.<br />

Wegen des lokalen Existenz- <strong>und</strong> Eindeutigkeitssatzes von Picard-Lindelöf bilden die Lösungen<br />

x = x(t, t 0 , x 0 ) einer nichtlinearen Differentialgleichung ẋ = f(x, t) für x 0 ∈ U ⊂ R d <strong>und</strong> t in<br />

einem Intervall I eine d-dimensionale Mannigfaltigkeit (Fläche) M ⊂ C 1 (I, R d ). Wegen des<br />

Existenz <strong>und</strong> Eindeutigkeitssatzes kann jedem x ∈ M seine Anfangsbedingung x| t=t0 = x 0 ∈<br />

U ⊂ R d zugeordnet werden.<br />

Im linearen Fall (5) gilt folgendes:<br />

Theorem 2.2 Für lineare <strong>Differentialgleichungen</strong> (1) ist die Mannigfaltigkeit M ein d-dimensionaler<br />

affiner Raum. Ist g ≡ 0, so ist M ein d-dimensionaler Vektorraum (Superpositionsprinzip).<br />

□<br />

Beweis: Setze<br />

L :<br />

{<br />

x ↦→ −ẋ + A(t)x,<br />

C 1 (I 0 , R d ) → C 0 (I 0 , R d )<br />

Es gilt L(αx + βy) = αLx + βLy für x, y ∈ C 1 (I 0 , R d ) <strong>und</strong> α, β ∈ R, d.h. L ist ein linearer<br />

Operator. Die Aussage, x löst ẋ = A(t)x, ist äquivalent zu Lx = 0, d.h. die Lösungen bilden<br />

einen Vektorraum im Fall g = 0.<br />

Es seien x <strong>und</strong> y Lösungen von ẋ = A(t)x + g(t), d.h. es gilt Lx = g <strong>und</strong> Ly = g. Dann folgt<br />

L(x − y) = 0. Damit ist M ein affiner Raum.<br />

Wegen des lokalen Existenz- <strong>und</strong> Eindeutigkeitssatzes ist M bereits als d-dimensional bekannt.<br />

□<br />

Konsequenz: Sei x inh irgend eine feste Lösung der inhomogenen Gleichung, d.h. ẋ inh =<br />

A(t)x inh + g(t) <strong>und</strong> {x 1 hom , . . . , xd hom } eine Basis aus Lösungen der homogenen Gleichung,<br />

d.h.<br />

ẋ j hom = A(t)xj hom .<br />

Dann schreibt sich eine allgemeine Lösung x von (5) als<br />

x = x inh + c 1 x 1 hom + ... + c dx d hom<br />

mit c j ∈ R. Die Konstanten c j können zu einer gegebenen Anfangsbedingung x| t=t0 = x 0<br />

berechnet werden, d.h.<br />

x 0 = x inh (t 0 ) + c 1 x 1 hom(t 0 ) + . . . + c d x d hom(t 0 ).<br />

10


Ist g ≡ 0, so gilt:<br />

x(t) = c 1 x 1 hom (t) + . . . + c dx d hom<br />

⎛<br />

(t),<br />

⎞<br />

c 1<br />

= ( x 1 hom (t), . . . , xd hom (t)) ⎜<br />

c 2<br />

⎟<br />

⎝ . ⎠<br />

c d<br />

= φ(t) c.<br />

Jede solche Matrix φ heißt F<strong>und</strong>amentalmatrix. Ist eine F<strong>und</strong>amentalmatrix bekannt, so kann<br />

die Lösung zu ẋ = A(t)x, x| t=t0 = x 0 aus x(t) = φ(t)c <strong>und</strong> x 0 = φ(t 0 )c berechnet werden.<br />

Wir erhalten<br />

x(t, t 0 , x 0 ) = φ(t)φ(t 0 ) −1 x 0 .<br />

2.2.2 Der Lösungsoperator S(t, s)<br />

Wegen des Satzes von Picard-Lindelöf ist φ(t)φ(t 0 ) −1 unabhängig von der speziellen Wahl der<br />

F<strong>und</strong>amentalmatrix φ. wir definieren den linearen Lösungsoperator<br />

{<br />

R d → R d<br />

S(t, s) :<br />

x 0 ↦→ x(t, s, x 0 )<br />

durch die Lösung x = x(t, s, x 0 ) von ẋ = A(t)x zur Anfangsbedingung x| t=s<br />

S(t, s) = φ(t)φ(s) −1 . Offensichtlich gilt:<br />

= x 0 , d.h.<br />

S(t, s) = S(t, τ) ◦ S(τ, s)<br />

S(t, t) = I<br />

Für festes s, t ∈ R ist S(t, s) : R d → R d eine bijektive Abbildung (invertierbare Matrix), mit<br />

S(t, s) −1 = S(s, t). Da diese Abbildung linear ist, ist sie bezüglich x 0 beliebig oft differenzierbar<br />

<strong>und</strong> daher ein Diffeomorphismus von R d nach R d .<br />

2.2.3 Die Variation der Konstanten Formel<br />

Wir betrachten<br />

ẋ = A(t)x + g(t)<br />

<strong>und</strong> wollen die Lösung x = x(t) durch die Inhomogenität g = g(t) <strong>und</strong> den Lösungsoperator<br />

S = S(t, s) ausdrücken. Nach Differenzieren von x(t) = S(t, s)y(t) ergibt sich<br />

ẋ(t) = ∂ t S(t, s)y(t) + S(t, s)ẏ(t)<br />

= A(t)S(t, s)y(t) + g(t).<br />

Da S(t, s) das homogene Problem ∂ t S(t, s) = A(t)S(t, s) löst, ergibt sich<br />

ẏ(t) = S(t, s) −1 g(t) = S(s, t)g(t).<br />

11


Aufintegrieren liefert<br />

y(t) − y(s) =<br />

Nach Rücktransformation erhalten wir<br />

∫ t<br />

s<br />

ẏ(τ)dτ =<br />

∫ t<br />

s<br />

S(s, τ)g(τ)dτ.<br />

∫ t<br />

x(t) = S(t, s)y(t) = S(t, s)y(s) + S(t, s)<br />

S(s, τ)g(τ)dτ<br />

= S(t, s)x(s) +<br />

∫ t<br />

S(t, τ)g(τ)dτ,<br />

s<br />

s<br />

da S(s, s) = I gilt. Dies heisst Variation der Konstanten Formel oder Formel von Duhamel.<br />

2.2.4 Die Exponentialmatrix<br />

Wir betrachten die lineare autonome Gleichung<br />

ẋ = Ax<br />

mit A ∈ R d×d unabhängig von t. Offensichtlich löst mit x = x(t) auch x = x(t − s) die<br />

Differentialgleichung. O.B.d.A können wir daher betrachten<br />

Theorem 2.3 Die Lösung von (7) ist durch<br />

gegeben, d.h. S(t, s) = e A(t−s) .<br />

ẋ = Ax, x| t=0 = x 0 . (7)<br />

x(t) = e At x 0 =<br />

∞∑ (At) n<br />

x 0 , (8)<br />

n!<br />

n=0<br />

Beweis: Die unendliche Summe konvergiert absolut, denn<br />

∞∑<br />

‖e At (At) n<br />

x 0 ‖ ≤ ‖ x 0 ‖ ≤<br />

n!<br />

n=0<br />

≤ e ‖A‖t ‖x 0 ‖.<br />

∞∑ ‖A‖ n t n<br />

‖x 0 ‖<br />

n!<br />

n=0<br />

Einsetzen ergibt<br />

(<br />

d ∑ ∞<br />

dt<br />

n=0<br />

)<br />

(At) n<br />

x 0 =<br />

n!<br />

∞∑<br />

n=1<br />

A(At) n−1<br />

(n − 1)! x 0 = A<br />

∞∑ (At) n<br />

x 0 .<br />

n!<br />

n=0<br />

□<br />

12


Die Exponentialreihe e At kann wie folgt berechnet werden. Die Transformation x = Sy in<br />

ẋ = Ax ergibt ẏ = S −1 ASy = Jy, wobei J die Jordansche Normalform ist, d.h.<br />

beziehungsweise<br />

e At x 0 = Se Jt y 0 = Se Jt S −1 x 0 ,<br />

S −1 e At S = S −1 (1 + At + A2 t 2<br />

+ ...)S<br />

2<br />

= (1 + S −1 ASt + S−1 ASS −1 ASt 2<br />

2<br />

+ ...) = (1 + Jt + J 2 t 2<br />

2 + ...) = eJt .<br />

Damit reicht es e Jt für J eine Matrix in Jordanscher Normalform zu berechnen. Diese ist von<br />

der Form<br />

⎛<br />

⎞ ⎛<br />

⎞<br />

J 1 0<br />

λ j 1 0<br />

J 2 . .. . ..<br />

J =<br />

J 3 mit J j =<br />

. .. . ..<br />

.<br />

⎜<br />

⎝<br />

. ..<br />

⎟ ⎜<br />

⎠ ⎝<br />

. ..<br />

⎟<br />

1 ⎠<br />

0 J r 0 λ j<br />

Da<br />

gilt, reicht es<br />

⎛<br />

e Jt = exp( ⎝<br />

⎞<br />

J 1 0<br />

. .. ⎠ t) =<br />

0 J r<br />

⎛<br />

⎝<br />

e J jt = e (λ j E+N k )t = e λ jEt e N kt<br />

e J ⎞<br />

1t<br />

0<br />

. .. ⎠<br />

0 e Jrt<br />

zu betrachten, wobei die letzte Gleichung wegen EN k = N k E mit der k × k-Matrix<br />

gilt. Übrig bleibt somit die Berechnung von<br />

⎛<br />

⎞<br />

0 1 0<br />

. .. . ..<br />

N k =<br />

. .. . ..<br />

⎜<br />

⎝<br />

.<br />

⎟ .. 1 ⎠<br />

0 0<br />

e N kt =<br />

∞∑<br />

ν=0<br />

t ν<br />

ν! N ν k .<br />

Es gilt aber<br />

N µ k = (δ i,j−µ) µ = 0, ..., k − 1<br />

N µ k<br />

= 0 µ = k, k + 1, ...<br />

13


<strong>und</strong> damit letztendlich<br />

⎛<br />

t<br />

1 t 2<br />

2!<br />

0 1 t<br />

e Nkt =<br />

0<br />

⎜ 0<br />

⎝<br />

. ..<br />

. ..<br />

. ..<br />

t k−1<br />

(k−1)!<br />

0 t<br />

0 1<br />

⎞<br />

.<br />

⎟<br />

⎠<br />

2.2.5 Ebene <strong>Systeme</strong><br />

Es sei x = x(t) ∈ R 2 . Wit wollen den Fluß der Lösungen x = x(t, x 0 ) autonomer homogener<br />

<strong>Differentialgleichungen</strong> (6) in der Ebene graphisch darstellen. Nach obigen Überlegungen<br />

reicht es ẋ = Ax mit A ∈ R 2×2 in Jordanscher Normalform zu betrachten. Es können folgende<br />

Fälle auftreten:<br />

( )<br />

λ1 0<br />

a) A =<br />

ist diagonalisierbar mit a1) λ j ∈ R oder a2) λ 1 = λ 2 . Im Fall a1) unterscheiden<br />

wir i) λ 1 = λ 2 , ii) λ 1 > λ 2 > 0 <strong>und</strong> iii) λ 1 > 0 > λ 2 . Alle weiteren auftretenden Fälle<br />

0 λ 2<br />

ergeben sich aus i)-iii) durch Zeitumkehr t ↦→ −t.<br />

( )<br />

λ 1<br />

b) A = ist ein Jordanblock mit λ j ∈ R<br />

0 λ<br />

Anhand von Beispielen wollen wir die Lösungen veranschaulichen, wobei C im folgenden allgemein<br />

für auftretende Konstanten gebraucht wird.<br />

( )<br />

1 0<br />

a1i) Es sei A = . Damit erhalten wir ẋ 1 = x 1 , ẋ 2 = x 2 <strong>und</strong> die Lösungen x 1 (t) =<br />

0 1<br />

e t x 1 (0), x 2 (t) = e t x 2 (0). Als Lösungskurven ergeben sich Geraden x 1 (t)/x 2 (t) = x 1 (0)/x 2 (0),<br />

d.h. x 1 = Cx 2 .<br />

Um die Lösungen graphisch zu veranschaulischen, können wir in jedem Punkt das Vektorfeld<br />

f(x) = x ∈ R 2 einzeichnen. Das Vektorfeld f(x)/‖f(x)‖ heißt Richtungsfeld. Jede Lösung<br />

x = x(t) hat im Punkt x ∈ R 2 den Vektor f(x) ∈ R 2 als Tangentialvektor ẋ(t).<br />

( )<br />

2 0<br />

a1ii) Es sei A = . Damit erhalten wir ẋ 1 = 2x 1 , ẋ 2 = x 2 <strong>und</strong> die Lösungen<br />

0 1<br />

x 1 (t) = e 2t x 1 (0), x 2 (t) = e t x 2 (0). Als Lösungskurven ergeben sich Parabeln x 1 (t)/(x 2 (t)) 2 =<br />

x 1 (0)/(x 2 (0)) 2 , d.h. x 1 = Cx 2 2. Das Phasenbild (Knoten) ist stabil unter kleinen Störungen, d.h.<br />

A = diag(1.9, 1.1) hat<br />

(<br />

ein vergleichbares<br />

)<br />

Phasenbild.<br />

1 0<br />

a1iii) Es sei A =<br />

. Damit erhalten wir ẋ 1 = x 1 , ẋ 2 = −x 2 <strong>und</strong> die Lösungen<br />

0 −1<br />

x 1 (t) = e t x 1 (0), x 2 (t) = e −t x 2 (0). Als Lösungskurven ergeben sich Hyperbeln x 1 (t)x 2 (t) =<br />

14


2<br />

1.5<br />

1<br />

0.5<br />

0<br />

-0.5<br />

-1<br />

-1.5<br />

-2<br />

-2 -1.5 -1 -0.5 0 0.5 1 1.5 2<br />

2<br />

1.5<br />

1<br />

0.5<br />

0<br />

-0.5<br />

-1<br />

-1.5<br />

-2<br />

-2 -1.5 -1 -0.5 0 0.5 1 1.5 2<br />

2<br />

1.5<br />

1<br />

0.5<br />

0<br />

-0.5<br />

-1<br />

-1.5<br />

-2<br />

-2 -1.5 -1 -0.5 0 0.5 1 1.5 2<br />

Abbildung 1: Richtungsfeld <strong>und</strong> Fluß in der Phasenebene zu a1i), <strong>und</strong> Fluß zu a1ii).<br />

x 1 (0)x 2 (0), d.h. x 1 = C/x 2 . Das Phasenbild (Sattel) ist stabil unter kleinen Störungen, d.h.<br />

A = diag(1.1, −0.9) hat ein vergleichbares Phasenbild.<br />

2<br />

1.5<br />

1<br />

0.5<br />

0<br />

-0.5<br />

-1<br />

-1.5<br />

-2<br />

-2 -1.5 -1 -0.5 0 0.5 1 1.5 2<br />

2<br />

1.5<br />

1<br />

0.5<br />

0<br />

-0.5<br />

-1<br />

-1.5<br />

-2<br />

-2 -1.5 -1 -0.5 0 0.5 1 1.5 2<br />

2<br />

1.5<br />

1<br />

0.5<br />

0<br />

-0.5<br />

-1<br />

-1.5<br />

-2<br />

-2 -1.5 -1 -0.5 0 0.5 1 1.5 2<br />

a2i) Es sei A =<br />

Abbildung 2: Fluß in der Phasenebene zu a1iii), zu a2i) <strong>und</strong> a2ii).<br />

(<br />

0 1<br />

−1 0<br />

)<br />

. Damit erhalten wir ẋ 1 = x 2 , ẋ 2 = −x 1 <strong>und</strong> für ˜x = x 1 + ix 2<br />

die Gleichung ˙˜x = −i˜x. Die Lösung ˜x(t) = e −it˜x(0) läßt die Kreise |˜x(t)| 2 = |˜x(0)| 2 , d.h.<br />

x 2 1 +x2 2 = C, invariant. Als Lösungskurven ergeben sich also Kreise. Das Phasenbild (Zentrum)<br />

ist nicht stabil unter<br />

(<br />

kleinen<br />

)<br />

Störungen. Im allgemeinen erhalten wir Fall a2ii)<br />

1 1<br />

a2ii) Es sei A =<br />

. Damit erhalten wir für ˜x = x 1 + ix 2 die Gleichung ˙˜x = (1 − i)˜x.<br />

−1 1<br />

Als Lösung ergibt sich ˜x(t) = e t e −it˜x(0). In Polarkoordinaten ˜x(t) = r(t)e iφ(t) mit r(t) ∈ R<br />

<strong>und</strong> φ(t) ∈ S 1 = R/(2πZ) ergeben sich ṙ = r <strong>und</strong> ˙φ = −1 als Gleichungen <strong>und</strong> r(t) = e t r(0)<br />

<strong>und</strong> φ(t) = (φ(0) + t)mod2π. Als Lösungskurven ergeben sich also Spiralen. Das Phasenbild<br />

(Wirbel) ist stabil unter kleinen Störungen.<br />

15


( )<br />

1 1<br />

b) Es sei A = . Damit erhalten wir ẋ 1 = x 1 + x 2 <strong>und</strong> x˙<br />

2 = x 2 . Für die zweite Gleichung<br />

ergibt sich x 2 (t) = e t x 2 (0). Die Variation der Konstanten Formel auf die erste Gleichung<br />

0 1<br />

angewendet, ergibt<br />

x 1 (t) = e t x 1 (0) +<br />

∫ t<br />

0<br />

e t−s e s u 2 (0)ds = e t x 1 (0) + e t tx 2 (0).<br />

Das Phasenbild ist nicht generisch, da das Auftreten eines Jordanblockes unwahrscheinlich ist.<br />

2<br />

1.5<br />

1<br />

0.5<br />

0<br />

-0.5<br />

-1<br />

-1.5<br />

-2<br />

-2 -1.5 -1 -0.5 0 0.5 1 1.5 2<br />

Abbildung 3: Fluß in der Phasenebene zu b).<br />

2.3 Strukturen<br />

2.3.1 Stabilität<br />

Ein Punkt x 0 ∈ R d heißt Fixpunkt (Gleichgewicht, singulärer Punkt, kritischer Punkt) der<br />

Gewöhnlichen Differentialgleichung (1), wenn für die rechte Seite f(x 0 , t) = 0 für alle t ∈ R.<br />

Dann ist x ≡ x 0 Lösung von (1).<br />

Definition 2.4 Ein Fixpunkt x 0 ∈ R d heißt stabil, falls für alle ɛ > 0 <strong>und</strong> t 0 ∈ R ein δ > 0<br />

existiert, so dass aus ‖x 1 − x 0 ‖ < δ für alle t ≥ t 0 die Schranke ‖x(t, t 0 , x 1 ) − x 0 ‖ < ɛ folgt.<br />

Ein nicht stabiler Fixpunkt heißt instabil.<br />

Ein stabiler Fixpunkt heißt asymptotisch stabil, falls zusätzlich lim t→∞ x(t, t 0 , x 1 ) = x 0 gilt.<br />

Die Idee der Stabilität ist: kleine Störungen führen zu kleinen Abweichungen; siehe Abb.4.<br />

Aus der expliziten Darstellungsformel für e At mittels der Jordanschen Normalform folgt unmittelbar<br />

für autonome Gleichungen.<br />

16


ε<br />

δ<br />

x=x(t)<br />

x 0<br />

x 1<br />

Abbildung 4: Stabilität eines Fixpunktes.<br />

Theorem 2.5 Der Fixpunkt x = 0 in ẋ = Ax ist<br />

a) asymptotisch stabil, falls alle Eigenwerte λ von A die Beziehung Reλ < 0 erfüllen.<br />

b) stabil, falls alle Eigenwerte λ die Beziehung Reλ ≤ 0 erfüllen <strong>und</strong> zu den Eigenwerten<br />

mit Reλ = 0 keine Jordanblöcke auftreten, d.h. diese Eigenwerte gleiche algebraische <strong>und</strong><br />

geometrische Vielfachheit besitzen.<br />

c) sonst instabil (, d.h. es gibt Eigenwerte mit Reλ = 0 <strong>und</strong> Jordanblock oder mindestens einen<br />

Eigenwert mit Reλ > 0)<br />

Siehe Abbildung 5.<br />

Im<br />

Im<br />

Im<br />

Re<br />

Re<br />

Re<br />

asymptotisch stabil<br />

stabil<br />

instabil<br />

Abbildung 5: Eigenwerte von A.<br />

In Kapitel 4 zeigen wir, dass ein Fixpunkt auch im nichtlinearen Fall stabil bzw. instabil ist,<br />

falls die Linearisierung um diesen Fixpunkt in den Fall a) oder c) fällt. Im Fall b) entscheiden<br />

die nichtlinearen Terme. In dieser Vorlesung konzentrieren wir uns auf die Fälle a) <strong>und</strong> c). Alle<br />

17


<strong>Systeme</strong> der klassischen Mechanik fallen in den Fall b) <strong>und</strong> werden in den Hamiltonschen <strong>Systeme</strong>n<br />

genauer untersucht.<br />

Eine andere Methode Stabilität nachzuweisen beruht auf sogenannten Lyapunovfunktionen. Eine<br />

Lyapunovfunktionen W : R d → R nimmt entlang von Lösungen ab.<br />

Beispiel 2.6 Es sei W (x) = x 2 1 + x 2 2 <strong>und</strong> ẋ 1 = −2x 1 , ẋ 2 = −x 2 . Dann gilt<br />

d<br />

dt W (x(t)) = ((∇W )(x(t)))T ẋ(t) = −4x 2 1 − 2x2 2 < 0,<br />

falls (x 1 , x 2 ) ≠ (0, 0). Da das Minimum in (x 1 , x 2 ) = (0, 0) liegt, konvergiert jede Lösung<br />

gegen (0, 0).<br />

Beispiel 2.7 Das Potential V : R d → R von Gradientensystemen ẋ = −∇V (x) ist eine Lyapunovfunktion.<br />

Um eine lineare Differentialgleichung zu erhalten, muß V = ∑ d<br />

i,j=1 b ijx i x j =<br />

x T Bx bilinear sein. Wir erhalten<br />

ẋ k = −∂ xk V (x) = − ∑ ij<br />

(δ ik b ij x j + x i b ij δ kj ) = − ∑ j<br />

(b kj + b jk )x j<br />

<strong>und</strong> somit ẋ = −(B + B T )x. Die Matrix (B + B T ) ist symmetrisch, womit kein Jordanblock<br />

möglich ist. Ist (B + B T ) positiv definit, so ist x = 0 stabil. Ist (B + B T ) strikt positiv definit,<br />

so ist x = 0 asymptotisch stabil.<br />

2.3.2 Invariante Mengen<br />

Wir betrachten im folgenden autonome <strong>Systeme</strong> ẋ = f(x).<br />

Definition 2.8 Eine Menge M ⊂ R d heißt (positiv, negativ) invariant unter dem Fluß der Differentialgleichung,<br />

falls für alle x 0 ∈ M folgt: x(t, x 0 ) ∈ M für alle t ∈ R (t > 0, t < 0).<br />

Definition 2.9 Eine Funktion F : R d → R heißt Integral von (1), falls F (x(t)) unabhängig<br />

von der Zeit entlang der Lösungen von (1), d.h. d F (x(t)) = 0.<br />

dt<br />

Offensichtlich ist {x ∈ R d | F (x) = const.} eine invariante Menge. Integrale sind hilfreich zum<br />

Verständnis von Lösungen. Sind (d−1) Integrale F j bekannt, so ist das Lösen der Gewöhnlichen<br />

Differentialgleichung (1) äquivalent zum Auflösen von (d − 1) algebraischen Gleichungen.<br />

Beispiel 2.10 Es sei F (x) = x 2 1 + x2 2 <strong>und</strong> ẋ 1 = −x 2 , ẋ 2 = x 1 . Dann gilt<br />

Damit ist ein F ein Integral.<br />

d<br />

dt F (x(t)) = ((∇F )(x(t))T ẋ(t) = −x 1 x 2 + x 2 x 1 = 0.<br />

18


Betrachte das autonome System ẋ = Ax. Die Eigenräume von A bilden unter dem Fluß e At<br />

invariante Unterräume. Wir fassen die verallgemeinerten Unterräume zu Reλ < 0 zum stabilen<br />

Unterraum E s , die verallgemeinerten Unterräume zu Reλ = 0 zum zentralen Unterraum E c<br />

<strong>und</strong> die verallgemeinerten Unterräume zu Reλ > 0 zum instabilen Unterraum E u zusammen.<br />

Diese invarianten Unterräume bleiben im nichtlinearen Fall als invariante Mannigfaltigkeiten<br />

erhalten. Der stabile Unterraum E s wird zur stabilen Mannigfaltigkeit W s , der instabile Unterraum<br />

E u wird zur instabilen Mannigfaltigkeit W u <strong>und</strong> der zentrale Unterraum E c wird zur<br />

zentralen bzw. Zentrums-Mannigfaltigkeit W c .<br />

Beispiel 2.11 Es sei A = diag(1, 0, −1). Dann ist<br />

E s = {x | x = λ(0, 0, 1) T , λ ∈ R}<br />

E c = {x | x = λ(0, 1, 0) T , λ ∈ R}<br />

E u = {x | x = λ(1, 0, 0) T , λ ∈ R}.<br />

Hamiltonsche <strong>Systeme</strong> bilden eine weitere wichtige Klasse von <strong>Differentialgleichungen</strong><br />

ẋ = J∇H(x)<br />

mit H : R 2 ˜d → R die Hamilton-Funktion <strong>und</strong> J = −J T<br />

Operator. Mechanische <strong>Systeme</strong> lassen sich so darstellen.<br />

∈ R 2 ˜d×2 ˜d ein schiefsymmetrischer<br />

Beispiel 2.12 Es sei q der Ort eines Teilchens. Nach Newton erhalten wir als Bewegungsgleichung<br />

¨q = −∇U(q) mit einem Potential U. Wir führen den Impuls p ein <strong>und</strong> schreiben dies als<br />

erstes Ordnungssystem<br />

˙q = p, ṗ = −∇U(q),<br />

bzw. als<br />

˙q = ∂ ∂p (p2 /2), ṗ = − ∂ ∂q U(q)<br />

Mit H = p 2 /2 + U(q) ergibt sich<br />

(<br />

dq<br />

dt<br />

dp<br />

dt<br />

)<br />

=<br />

(<br />

∂H<br />

∂p<br />

− ∂H<br />

∂q<br />

) (<br />

0 1<br />

=<br />

−1 0<br />

) (<br />

∂H<br />

∂q<br />

∂H<br />

∂p<br />

)<br />

Die Hamilton-Funktion H ist ein Integral, denn<br />

d<br />

dt H(x(t)) = ((∇H)(x(t)))T ẋ(t) = ((∇H)(x(t))) T J((∇H)(x(t)) = 0,<br />

da J ein schiefsymmetrischer Operator ist. Damit ist die Menge {x | H(x) = const.} invariant<br />

unter dem Fluß. Sie heißt Energiefläche. Die Theorie dieser <strong>Systeme</strong> ist Gegenstand von<br />

Spezialvorlesungen; siehe insbesondere Integrabilität, Stabilität, KAM-Theorie.<br />

19


2.3.3 Symmetrien<br />

Wir bezeichnen mit GL(d) die Gruppe aller invertierbaren linearen Abbildungen des R d in sich.<br />

Im folgenden sei Γ eine abgeschlossene Untergruppe von GL(d).<br />

Beispiel 2.13 Die orthogonalen Matrizen O(d) bestehen aus allen d×d-Matrizen mit A T A = I<br />

Ist zusätzlich det A = 1 so ist A ∈ SO(d), die Menge der speziellen orthogonalen Matrizen.<br />

Definition 2.14 Wir sagen, dass Γ durch die stetige Abbildung (die Darstellung)<br />

Γ × R d → R d , (γ, v) ↦→ γ · v<br />

auf den R d wirkt. Es gilt γ(v 1 + v 2 ) = γv 1 + γv 2 <strong>und</strong> (γ 1 γ 2 )v = γ 1 (γ 2 v).<br />

Eine Abbildung f : R d → R d kommutiert mit Γ bzw. heißt Γ-äquivariant, falls<br />

f(γx) = γf(x), für alle x ∈ R d , γ ∈ Γ.<br />

Eine Funktion g : R d → R heißt Γ-invariant, falls<br />

g(γx) = g(x), für alle x ∈ R d , γ ∈ Γ.<br />

Ist f Γ-äquivariant, so ist mit x = x(t) auch γx = γx(t) Lösung der Gewöhnlichen Differentialgleichung<br />

ẋ = f(x), denn<br />

d<br />

(γx) = γẋ = γf(x) = f(γx).<br />

dt<br />

Beispiel 2.15 ẋ 1 = x 1 , ẋ 2 = x 2 ist O(2)-äquivariant.<br />

Symmetrien können zu einer Dimensionsreduktion benützt werden. Symmetrien können aber<br />

auch zu Entartungen, wie mehrfache Eigenwerte, führen. Für viele Sätze, insbesonders in der<br />

Bifurkationstheorie, werden Nichtdegeneriertheitsbedingungen gefordert. Diese sind im symmetrischen<br />

Fall meist nicht erfüllt. Daher existieren häufig auch symmetrische Formulierungen<br />

([GS85, GSS88]).<br />

2.4 Lineare <strong>Systeme</strong> mit periodischen Koeffizienten<br />

Wir betrachten ẋ(t) = A(t)x(t) für t ∈ R mit<br />

d.h. A ist T -periodisch. Offensichtlich gilt:<br />

A(t) = A(t + T ), für ein festes T ∈ R,<br />

Lemma 2.16 Mit x(t, t 0 , x 0 ) ist auch x(t+nT, t 0 +nT, x 0 ) mit n ∈ N Lösung der T -periodischen<br />

Differentialgleichung.<br />

20


Dieses Lemma gilt allgemein für T -periodisches f, d.h. f(x, t) = f(x, t + T ).<br />

Der f<strong>und</strong>amentale Satz dieses Kapitels lautet<br />

Theorem 2.17 (Floquet) Jede F<strong>und</strong>amentalmatrix φ = φ(t) kann als Produkt zweier d × d-<br />

Matrizen<br />

φ(t) = P (t)e Bt<br />

geschrieben werden. Dabei gilt P (t) = P (t + T ) <strong>und</strong> B ist eine konstante d × d-Matrix.<br />

Beweis: Nach obigem Lemma ist mit φ(t) auch φ(t + T ) eine F<strong>und</strong>amentalmatrix. Damit existiert<br />

eine invertierbare d × d-Matrix C, so dass<br />

φ(t + T ) = φ(t)C.<br />

Eine invertierbare d × d-Matrix C kann immer als C = e BT mit B eine nicht eindeutige d × d-<br />

Matrix geschrieben werden. Als Beispiel betrachte C = diag(λ 1 , . . . , λ d ) mit λ j > 0. Dann<br />

ist der Logarithmus B = diag(ln λ 1 , . . . , ln λ d ). Der allgemeine Fall wird in den Übungen<br />

betrachtet. Beachte dazu −1 = e iπ <strong>und</strong> die Reihe für ln(1 + x) im Falle von Jordanblöcken.<br />

Setze P (t) = φ(t)e −Bt . Dann gilt<br />

P (t + T ) = φ(t + T )e −B(t+T )<br />

= φ(t)Ce −BT e −Bt<br />

= φ(t)e −Bt = P (t)<br />

Die Matrix C heißt Monodromiematrix. Die Eigenwerte von C heißen Floquetmultiplikatoren.<br />

Die Eigenwerte von B heißen Floquetexponenten. Letztere sind nicht eindeutig, da stets 2πi/T<br />

addiert werden kann. Die Floquetmultiplikatoren sind eindeutig, denn: Seien zwei F<strong>und</strong>amentalmatrizen<br />

φ = φ(t) <strong>und</strong> ψ = ψ(t) gegeben. Dann gilt ψ −1 (t)φ(t) = S ist unabhängig von der<br />

Zeit. Somit ist<br />

C φ = φ(t) −1 φ(t + T ) = S −1 ψ(t) −1 ψ(t + T )S = S −1 C ψ S.<br />

Damit sind die Matrizen C zu verschiedenen F<strong>und</strong>amentalmatrizen zueinander ähnlich.<br />

Die T -periodische Transformation x(t) = P (t)y(t) liefert<br />

<strong>und</strong> damit<br />

P (t)ẏ(t) + ˙ P (t)y(t) = ẋ(t) = A(t)x(t) = A(t)P (t)y(t)<br />

ẏ(t) = P (t) −1 (A(t)P (t) − ˙ P (t))y(t)<br />

= P (t) −1 (A(t)P (t) − ˙φ(t)e −Bt − φ(t)(−B)e −Bt )y(t)<br />

= P (t) −1 (A(t)P (t) − A(t)φ(t)e −Bt + φ(t)e −Bt B)y(t)<br />

= P (t) −1 (A(t)P (t) − A(t)P (t) + P (t)B)y(t) = By(t).<br />

21<br />


Um die Stabilität von x = 0 zu untersuchen, reicht es daher die Eigenwerte von B zu betrachten.<br />

Erfüllen zum Beispiel alle Eigenwerte λ von B die Beziehung Reλ < 0, so ist x = 0<br />

asymptotisch stabil. Für die Behandlung nichtlinearer Gleichungen ist die Betrachtung von C<br />

viel instruktiver.<br />

Nach obigem Lemma gilt für n ∈ N <strong>und</strong> τ ∈ [0, T ), dass<br />

x(t, 0, x 0 ) = x(nT + τ, 0, x 0 ) = x(nT + τ, nT, x(nT, 0, x 0 ))<br />

= x(nT + τ, nT, x(nT, (n − 1)T, x((n − 1)T, 0, x 0 ))<br />

= x(τ, 0, x(T, 0, x(T, 0, . . . , x(T, 0, x 0 )) . . .)))<br />

= φ τ ◦ φ T ◦ . . . ◦ φ T (x 0 ),<br />

wobei φ t x 0 = x(t, 0, x 0 ). Da τ ∈ [0, T ) ist, ist für die Langzeitdynamik allein die Iteration der<br />

Zeit T -Abbildung φ T von Interesse, d.h. im linearen Fall die Abbildung<br />

S(T, 0) = (P (T )e BT )(P (0)e B0 ) −1 = C.<br />

Theorem 2.18 In einem diskreten dynamischen System x n+1 = Cx n gilt:<br />

a) Erfüllen alle Eigenwerte µ von C die Bedingung |µ| < 1, so ist x = 0 asymptotisch stabil,<br />

d.h. lim n→∞ x(n, x 0 ) = 0.<br />

b) Existiert mindestens ein Eigenwert µ von C mit |µ| > 1, so ist x = 0 instabil.<br />

Im<br />

1<br />

Im<br />

1<br />

Re<br />

Re<br />

asymptotisch stabil<br />

instabil<br />

Abbildung 6: Die Eigenwerte von C.<br />

Linearisierungen um periodische Lösungen in nichtlinearen autonomen <strong>Differentialgleichungen</strong><br />

enthalten immer einen Floquetmultiplikator 1. Deshalb wird die sogenannte Poincaré-<br />

Abbildung betrachtet werden.<br />

Wie oben können für diskrete dynamische <strong>Systeme</strong> invariante Mengen definiert werden.<br />

Beispiel 2.19 Betrachte x 1 (n + 1) = 2x 1 (n), x 2 (n + 1) = (1/2)x 2 (n). Die Menge E s = {x ∈<br />

R 2 | x 1 = 0} ist der stabile Unteraum. Die Menge E u = {x ∈ R 2 | x 2 = 0} ist der instabile<br />

22


Unteraum. Wie bei <strong>Differentialgleichungen</strong> bleiben diese im nichtlinearen Fall erhalten <strong>und</strong><br />

werden zu stabilen <strong>und</strong> instabilen Mannigfaltigkeiten. Siehe Abbildung 7.<br />

2<br />

1.5<br />

1<br />

0.5<br />

0<br />

-0.5<br />

-1<br />

-1.5<br />

-2<br />

-2 -1.5 -1 -0.5 0 0.5 1 1.5 2<br />

Abbildung 7: Das Phasenbild der Iteration.<br />

Beispiel 2.20 Betrachte die 1-periodische Differentialgleichung ẋ = (cos 2 2πt)x für x(t) ∈ R.<br />

Als Lösung zur Anfangsbedingung x(0) = x 0 ergibt sich<br />

x(t, 0, x 0 ) = x 0 exp( t 2<br />

+<br />

sin 4πt<br />

8π )<br />

<strong>und</strong> somit<br />

sin 4πt<br />

P (t) = exp(<br />

8π ) <strong>und</strong> eBt = exp( t 2 ).<br />

Wir haben einen Floquetmultiplikator e 1/2 <strong>und</strong> den Floquetexponenten 1/2. Die Zeit 1-Abbildung<br />

ist durch φ(x 0 ) = e 1/2 x 0 gegeben.<br />

Das folgende Beispiel (Markus <strong>und</strong> Yamabe) zeigt, dass im periodischen Fall die Eigenwerte<br />

einer Matrix keine Aussagekraft über die Stabilität haben.<br />

Beispiel 2.21 Betrachte ẋ = A(t)x mit<br />

( )<br />

−1 +<br />

3<br />

2<br />

A(t) =<br />

cos2 t 1 − 3 sin t cos t<br />

2<br />

−1 − 3 sin t cos t −1 + .<br />

3<br />

2 2 sin2 t<br />

Als charakteristisches Polynom ergibt sich<br />

(−1 + 3 2 cos2 t − λ)(−1 + 3 2 sin2 t − λ) − (1 − 3 sin t cos t)(−1 − 3 sin t cos t)<br />

2 2<br />

= λ 2 + 2λ − 3 2 (cos2 t + sin 2 t)λ + 1 − 3 2 (cos2 t + sin 2 t) + 9 4 cos2 t sin 2 t + 1 − 9 4 cos2 t sin 2 t<br />

= λ 2 + 1 2 λ + 1 2 ,<br />

d.h. die Eigenwerte sind unabhängig von t <strong>und</strong> lauten<br />

λ 1,2 = (−1 ± i √ 7)/4.<br />

23


Dies führt zu der Vermutung, dass x = 0 stabil ist. Es existiert jedoch die Lösung<br />

( )<br />

− cos t<br />

sin t<br />

e t/2 ,<br />

welche für t → ∞ unbeschränkt wird. Tatsächlich sind die Floquetexponenten durch λ 1 = 1 2<br />

<strong>und</strong> λ 2 = −1 gegeben.<br />

24


3 Nichtlineare <strong>Systeme</strong><br />

Wir betrachten für allgemeine nichtlineare <strong>Systeme</strong> (1) neben der lokalen Existenz <strong>und</strong> Eindeutigkeit<br />

von Lösungen auch die Frage nach der globalen Existenz. Anschließend geben wir<br />

numerische Verfahren zu deren Untersuchung an <strong>und</strong> analysieren deren Güte.<br />

3.1 Existenz <strong>und</strong> Eindeutigkeit<br />

Wir beweisen zunächst die lokale Existenz <strong>und</strong> Eindeutigkeit der Lösungen unter Verwendung<br />

des Banachschen Fixpunktsatzes.<br />

Theorem 3.1 Sei (M, d) ein vollständiger metrischer Raum <strong>und</strong> F : M → M eine Kontraktion,<br />

d.h. es gibt ein κ ∈ (0, 1), so dass d(F (x), F (y)) ≤ κd(x, y) für alle x, y ∈ M. Dann<br />

besitzt F einen eindeutigen Fixpunkt x ∗ , d.h. x ∗ = F (x ∗ ).<br />

Beweis: Wir zeigen zunächst die Eindeutigkeit. Angenommen es existieren zwei verschiedene<br />

Fixpunkte x ∗ <strong>und</strong> y ∗ . Dann gilt<br />

d(x ∗ , y ∗ ) = d(F (x ∗ ), F (y ∗ )) ≤ κd(x ∗ , y ∗ ).<br />

Da κ ∈ (0, 1), folgt d(x ∗ , y ∗ ) = 0 <strong>und</strong> somit x ∗ = y ∗ im Widerspruch zur Annahme.<br />

Wir definieren die Folge x n+1 = F (x n ) mit x 0 ∈ M beliebig, aber fest. Dann gilt für m ≥ n<br />

m−1<br />

∑<br />

d(x m , x n ) ≤ d(x j+1 , x j ) ≤<br />

j=n<br />

m−1<br />

∑<br />

j=n<br />

κ j d(x 1 , x 0 ) ≤<br />

d.h. für alle ɛ > 0 gibt es ein N > 0, so dass für alle n, m > N:<br />

d(x m , x n ) ≤<br />

κN<br />

1 − κ d(x 1, x 0 ) ≤ ɛ,<br />

κn<br />

1 − κ d(x 1, x 0 ),<br />

d.h. (x n ) n∈N ist eine Cauchy-Folge. Da M vollständig, existiert ein x ∗ ∈ M, so dass x ∗ =<br />

lim n→∞ x n . x ∗ ist ein Fixpunkt, da wegen der Stetigkeit von F<br />

F (x ∗ ) = F ( lim<br />

n→∞<br />

x n ) = lim<br />

n→∞<br />

F (x n ) = lim<br />

n→∞<br />

x n+1 = x ∗ .<br />

□<br />

Theorem 3.2 Betrachte das Anfangswertproblem<br />

ẋ = f(x, t), x(t 0 ) = x 0<br />

für x ∈ D = {x ∈ R d | ‖x − x 0 ‖ ≤ d 0 } <strong>und</strong> t ∈ [t 0 − a, t 0 + a] mit a, d 0 > 0. Die Funktion f<br />

sei stetig in t <strong>und</strong> Lipschitz-stetig in x mit Lipschitz-Konstante L in G = D × [t 0 − a, t 0 + a].<br />

Dann besitzt das Anfangswertproblem eine eindeutige Lösung x ∈ C 1 ([t 0 −δ, t 0 +δ], R d ), wobei<br />

δ = min(a, d 0 /M, 1/(2L)) mit M = sup (x,t)∈G ‖f(x, t)‖.<br />

25


Beweis: Wir wenden den Banachschen Fixpunktsatz auf die Abbildung F : M → M definiert<br />

durch<br />

im vollständigen metrischen Raum<br />

an.<br />

F (x)(t) = x 0 +<br />

∫ t<br />

M = {x ∈ C([t 0 − δ, t 0 + δ], R d ) | d(x, x 0 ) =<br />

t 0<br />

f(x(s), s)ds<br />

sup ‖x(t) − x 0 ‖ ≤ d 0 }<br />

t∈[t 0 −δ,t 0 +δ]<br />

i) Zunächst bildet F den Raum M in sich ab, denn: Offensichtlich bildet F den Raum C([t 0 −<br />

δ, t 0 + δ], R d ) in sich ab, <strong>und</strong><br />

∫ t<br />

d(F (x), x 0 ) = sup ‖ f(x(s), s)ds‖ ≤ δM ≤ d 0 .<br />

t∈[t 0 −δ,t 0 +δ] t 0<br />

ii) F ist eine Kontraktion, da<br />

d(F (x), F (y)) = sup ‖<br />

t∈[t 0 −δ,t 0 +δ]<br />

≤<br />

sup |<br />

t∈[t 0 −δ,t 0 +δ]<br />

∫ t<br />

∫ t<br />

t 0<br />

f(x(s), s) − f(y(s), s)ds‖<br />

t 0<br />

‖f(x(s), s) − f(y(s), s)‖ds|<br />

∫ t<br />

≤ sup |<br />

t∈[t 0 −δ,t 0 +δ]<br />

L‖x(s) − y(s)‖ds|<br />

t 0<br />

≤ Lδ sup ‖x(s) − y(s)‖<br />

t∈[t 0 −δ,t 0 +δ]<br />

= Lδd(x, y) ≤ 1 d(x, y).<br />

2<br />

Damit sind alle Voraussetzungen erfüllt <strong>und</strong> folglich besitzt F einen eindeutigen Fixpunkt x ∗ ∈<br />

M. Ist x ∗ ∈ M, so gilt offensichtlich F (x ∗ ) ∈ C 1 ([t 0 − δ, t 0 + δ], R d ), womit x ∗ = F (x ∗ )<br />

ebenfalls einmal differenzierbar ist. Damit können wir die Beziehung x ∗ = F (x ∗ ) einmal nach<br />

der Zeit differenzieren <strong>und</strong> erhalten, dass x ∗ die Differentialgleichung löst.<br />

□<br />

Korollar 3.3 Ist f in einer Umgebung eines Punktes (x 0 , t 0 ) ∈ R d ×R stetig in t <strong>und</strong> Lipschitzstetig<br />

in x, so existiert ein δ > 0 <strong>und</strong> eine eindeutige Lösung x ∈ C 1 ([t 0 − δ, t 0 + δ], R d ) mit<br />

x| t=t0 = x 0 .<br />

Ist f in einer Umgebung eines Punktes (x(t 0 + δ, t 0 , x 0 ), t 0 + δ) ∈ R d × R stetig in t <strong>und</strong><br />

Lipschitz-stetig in x, so können wir den obigen Existenz- <strong>und</strong> Eindeutigkeitssatz erneut anwenden.<br />

Damit läßt sich eine Lösung, solange fortsetzen bis die Voraussetzungen des Existenz- <strong>und</strong><br />

Eindeutigkeitssatzes nicht mehr erfüllt sind.<br />

Korollar 3.4 Ist f ∈ C 1 (R d , R d ), so können die Lösungen der autonomen Differentialgleichung<br />

ẋ = f(x) in jedem Punkt des Phasenraumes R d fortgesetzt werden. Eine Lösung kann<br />

26


nur aufhören zu existieren, falls sie in endlicher Zeit unbeschränkt wird. Existiert eine Lösung<br />

für alle t ∈ I mit I ein Intervall, so heißt I das maximale Existenzintervall, welches unter<br />

diesen Voraussetzungen an f stets offen ist.<br />

Beispiel 3.5 Es gibt keine stetige Funktion, welche ẋ = t −2 , x(0) = 1 erfüllt.<br />

Beispiel 3.6 Betrachte das Anfangswertproblem<br />

ẋ = x 2 , x(0) = a > 0.<br />

Die eindeutige Lösung x(t) = a/(1 − at) existiert für t ∈ [0, a −1 ), d.h. die Lösung explodiert<br />

(wird unbeschränkt) in endlicher Zeit.<br />

Beispiel 3.7 Betrachte das Anfangswertproblem (α ∈ (0, 1))<br />

ẋ = |x| α , x(0) = 0.<br />

Neben der Lösung x ≡ 0 existieren noch unendlich viele weitere, nämlich für jedes τ > 0<br />

{<br />

0 für t ∈ [0, τ]<br />

x(t) =<br />

p −p (t − τ) p für t > τ,<br />

wobei p = (1 − α) −1 . Wir bemerken explizit, dass x = x(t) für t = τ stetig differenzierbar ist<br />

<strong>und</strong> damit tatsächlich eine Lösung im obigen Sinne darstellt.<br />

Wie wir gesehen haben, reicht es für zeitunabhängiges differenzierbares f : R d → R d die Größe<br />

der Lösungen gewöhnlicher <strong>Differentialgleichungen</strong> zu kontrollieren, um auf globale Existenz<br />

der Lösungen schließen zu können. Dazu <strong>und</strong> zur Anschätzung von Näherungsfehlern beweisen<br />

wir die Gronwallsche Ungleichung.<br />

Lemma 3.8 Es gelte für t ∈ (t 0 , t 0 +a) mit a > 0 <strong>und</strong> φ <strong>und</strong> ψ nichtnegative stetige Funktionen<br />

die Ungleichung<br />

φ(t) ≤<br />

∫ t<br />

Dann folgt für t ∈ (t 0 , t 0 + a) die Abschätzung<br />

Beweis: Nach Voraussetzung ist<br />

t 0<br />

ψ(s)φ(s)ds + δ.<br />

R t<br />

t<br />

φ(t) ≤ δe<br />

ψ(s)ds 0 .<br />

φ(t)<br />

∫ t<br />

t 0<br />

ψ(s)φ(s)ds + δ ≤ 1.<br />

Nach Multiplikation beider Seiten mit ψ(t) <strong>und</strong> Integration ergibt sich<br />

∫ t<br />

∫ τ<br />

t 0<br />

∫<br />

ψ(τ)φ(τ)<br />

t<br />

t 0<br />

ψ(s)φ(s)ds + δ dτ ≤<br />

27<br />

t 0<br />

ψ(τ)dτ


<strong>und</strong> daraus<br />

<strong>und</strong><br />

∫ t<br />

∫ t<br />

ln( ψ(s)φ(s)ds + δ) − ln δ ≤<br />

t 0<br />

ψ(τ)dτ<br />

t 0<br />

∫ t<br />

t 0<br />

ψ(s)φ(s)ds + δ ≤ δ exp(<br />

∫ t<br />

t 0<br />

ψ(τ)dτ).<br />

Nach Voraussetzung ist φ(t) kleiner als der Ausdruck auf der linken Seite.<br />

□<br />

Beispiel 3.9 Eine Funktion f : R d × R → R d heißt linear beschränkt, wenn es Konstanten C 1<br />

<strong>und</strong> C 2 gibt, so dass für alle (x, t) ∈ R d × R die Abschätzung ‖f(x, t)‖ ≤ C 1 + C 2 ‖x‖ gilt,<br />

Ist f ∈ C 1 (R d × R, R d ) linear beschränkt, so existieren die Lösungen von (1) für alle t ∈ R.<br />

Zunächst folgt durch Aufintegrieren von (1)<br />

Für φ(t) = ‖x(t)‖ + C 1<br />

C 2<br />

‖x(t)‖ ≤ ‖x 0 ‖ +<br />

ergibt sich<br />

≤ ‖x 0 ‖ +<br />

∫ t<br />

0<br />

∫ t<br />

≤ ‖x 0 ‖ + C 1 t +<br />

φ(t) ≤ C 2<br />

∫ t<br />

0<br />

0<br />

‖f(x(s), s)‖ds<br />

C 1 + C 2 ‖x(s)‖ds<br />

∫ t<br />

0<br />

C 2 ‖x(s)‖ds.<br />

φ(s)ds + C 1<br />

C 2<br />

+ ‖x 0 ‖<br />

<strong>und</strong> somit nach der Gronwallschen Ungleichung<br />

( )<br />

C1<br />

φ(t) ≤ + ‖x 0 ‖ e C2t .<br />

C 2<br />

Eine unmittelbare Konsequenz ist, dass die Lösungen der linearen <strong>Differentialgleichungen</strong> ẋ =<br />

A(t)x + g(t) wie in Kapitel 2 behauptet für alle t ∈ R existieren, falls A <strong>und</strong> g für alle t ∈ R<br />

stetig sind.<br />

Eine andere Anwendung der Gronwallschen Ungleichung ist die stetige Abhängigkeit von den<br />

Anfangsbedingungen. Sei f : R d → R d Lipschitz-stetig mit Konstante L. So gilt<br />

‖x(t, x 0 ) − x(t, y 0 )‖ ≤ ‖x 0 − y 0 ‖ +<br />

≤<br />

∫ t<br />

‖x 0 − y 0 ‖ + L<br />

0<br />

∫ t<br />

<strong>und</strong> somit nach Anwendung des Gronwallschen Lemmas<br />

‖x(t, x 0 ) − x(t, y 0 )‖ ≤ ‖x 0 − y 0 ‖e Lt .<br />

28<br />

‖f(x(s, x 0 ) − f(x(s, y 0 ))‖ds<br />

0<br />

‖x(s, x 0 ) − x(s, y 0 )‖ds


Ist f differenzierbar, so hängt die Lösung x(t, t 0 , x 0 ) differenzierbar von der Anfangsbedingung<br />

x 0 ab. Siehe [KK74].<br />

Eine andere Methode die globale Existenz von Lösungen nachzuweisen, sind sogenannte Energieabschätzungen.<br />

Beispiel 3.10 Betrachte<br />

ẋ = x − x 3 , x(0) = x 0 .<br />

Wir haben drei Fixpunkte, den instabilen x = 0 <strong>und</strong> die stabilen x = ±1. Vom Phasenbild<br />

ist daher klar, dass die Lösungen für alle t ≥ 0 existieren. Dies kann auch wie folgt bewiesen<br />

werden. Betrachte die Differentialgleichung für die skalare Größe r = x 2 ≥ 0:<br />

ṙ = d dt (x2 ) = 2xẋ = 2x 2 − 2x 4 ≤ 2 − 2x 2 = 2 − 2r.<br />

Aus dem Phasenbild für ṙ = 2 − 2r folgt sofort, dass alle Lösungen für t ≥ 0 beschränkt<br />

bleiben. Es gilt sogar lim sup t→∞ r(t) ≤ 1. Damit bleibt auch x beschränkt <strong>und</strong> es gilt, wie<br />

bereits bekannt lim sup t→∞ x 2 (t) ≤ 1.<br />

Beispiel 3.11 Wir verallgemeinern das letzte Beispiel <strong>und</strong> betrachten jetzt allgemein<br />

ẋ = f(x), x(0) = x 0 .<br />

Die Differentialgleichung für die skalare Größe r(t) = x T (t)x(t) lautet<br />

ṙ = x T ẋ + ẋ T x = 2x T f(x).<br />

Existieren nun Konstanten C 1 > 0 <strong>und</strong> C 2 > 0, so dass für alle x ∈ R d die Ungleichung<br />

gilt, so erfüllt r die Differentialungleichung<br />

x T f(x) ≤ C 1 − C 2 x T x<br />

ṙ ≤ C 1 − C 2 r.<br />

Damit bleibt r(t) <strong>und</strong> damit auch x(t) für alle t ≥ 0 beschränkt <strong>und</strong> es gilt<br />

lim sup<br />

t→∞<br />

r(t) = lim sup x T (t)x(t) ≤ C 1 /C 2 .<br />

t→∞<br />

Es kann sich als sinnvoll erweisen allgemein r(t) = x T (t)B(t)x(t) mit B(t) eine in t ≥ 0<br />

gleichmäßig positiv definite d × d-Matrix zu betrachten <strong>und</strong> eventuell höhere Ordnungen in x<br />

zuzulassen.<br />

29


3.2 Numerik<br />

Nur in den seltensten Fällen ist es möglich die Lösungen gewöhnlicher <strong>Differentialgleichungen</strong><br />

explizit in bekannten Funktionen auszudrücken. Vielfach sind selbst diese Ausdrücke so kompliziert,<br />

dass es mehr Sinn macht auch diese Lösungen numerisch anzunähern. Die folgenden<br />

numerischen Verfahren erlauben es die Lösung x = x(t, t 0 , x 0 ) zu<br />

ẋ = f(x, t), x| t=t0 = x 0<br />

auf einem vorgebenen Intervall [t 0 , t e ] zu approximieren. Um über das gesamte Lösungsverhalten<br />

der Differentialgleichung etwas zu erfahren, können diese Näherungen nützlich sein, einen<br />

ersten Eindruck zu gewinnen. Sie müssen dann durch weitere Verfahren <strong>und</strong> Überlegungen<br />

ergänzt werden.<br />

Das Euler-Verfahren:<br />

Das einfachste Verfahren die Lösung x = x(t) auf einem Intervall [t 0 , t e ] zu approximieren, ist<br />

das Euler-Verfahren. Die durch den folgenden Algorithmus gewonnene Näherungslösung werde<br />

mit y = y(t) bezeichnet.<br />

Algorithmus: Das vorgegebene Intervall werde in Teilintervalle [t 0 , t e ] = ⋃ N<br />

n=1 [t n−1, t n ] mit<br />

t n = t 0 + nh, der Schrittweite h = (t e − t 0 )/N, N ∈ N zerlegt. Dann definieren wir y(t) zu<br />

den Zeitpunkten t = t n durch<br />

y(t n+1 ) = y(t n ) + hf(t n , y(t n )), y(t 0 ) = x 0 .<br />

Zwischen den Punkten y(t n ) <strong>und</strong> y(t n+1 ) wird y = y(t) durch lineare Interpolation definiert.<br />

Der Einfachheit halber sei<br />

sup ‖f(x, t)‖ ≤ M < ∞.<br />

(x,t)∈R d ×[t 0 ,t e]<br />

Damit gilt für die Näherungslösung y = y(t) die Abschätzung<br />

sup ‖y(t)‖ ≤ ‖x 0 ‖ + M|t e − t 0 | =: C y ,<br />

t∈[t 0 ,t e]<br />

d.h. die durch das Eulerverfahren gewonnene Näherungslösung y = y(t) bleibt beschänkt unabhängig<br />

von der Größe von h.<br />

Es gilt nun folgender Satz.<br />

Theorem 3.12 Es sei f : R d × [t 0 , t e ] → R d Lipschitz-stetig mit Konstante L in x <strong>und</strong> t. Dann<br />

gibt es ein h 0 > 0 <strong>und</strong> ein C > 0, so dass für alle h ∈ (0, h 0 ] die Abschätzung<br />

sup ‖x(t) − y(t)‖ ≤ Ch<br />

t∈[t 0 ,t e]<br />

gilt, d.h. die Näherungslösung y = y(t) konvergiert gegen die exakte Lösung x = x(t) für<br />

h → 0.<br />

30


Beweis: Die Differenz r(t) = x(t) − y(t) erfüllt die Gleichung<br />

Für t = t m gilt<br />

r(t) = x(t) − y(t) = x 0 +<br />

∫ t<br />

∫ t<br />

t 0<br />

f(y(s) + r(s), s)ds − y(t).<br />

s 1 = x 0 + f(y(s) + r(s), s)ds − y(t)<br />

t 0<br />

m−1<br />

∑<br />

∫ tn+1<br />

= x 0 + f(y(s) + r(s), s)ds − y(t 0 ) − (<br />

t n<br />

n=0<br />

m−1<br />

∑<br />

= x 0 − y(t 0 ) + (<br />

n=0<br />

∫ tn+1<br />

Nach Verwendung des Euler-Algorithmus ergibt sich<br />

<strong>und</strong> somit<br />

‖s 1 ‖<br />

≤<br />

≤<br />

≤<br />

≤<br />

≤<br />

≤<br />

m−1<br />

∑<br />

s 1 =<br />

=<br />

∫ tn+1<br />

n=0 t n<br />

m−1 ∫ tn+1<br />

∑<br />

n=0<br />

m−1<br />

∑<br />

t n<br />

n=0 t n<br />

m−1 ∫ tn+1<br />

∑<br />

∫ tn+1<br />

n=0 t n<br />

m−1 ∫ tn+1<br />

∑<br />

n=0<br />

∫ t<br />

m−1<br />

∑<br />

(<br />

∫ tn+1<br />

n=0 t n<br />

m−1 ∫ tn+1<br />

∑<br />

n=0<br />

t n<br />

m−1<br />

∑<br />

n=0<br />

y(t n+1 ) − y(t n ))<br />

t n<br />

f(y(s) + r(s), s)ds − (y(t n+1 ) − y(t n )))<br />

f(y(s) + r(s), s)ds − f(y(t n ), t n )h)<br />

(f(y(s) + r(s), s) − f(y(t n ), t n ))ds<br />

‖f(y(s) + r(s), s) − f(y(t n ), t n )‖ds<br />

‖f(y(s) + r(s), s) − f(y(s), s)‖ + ‖f(y(s), s) − f(y(t n ), s)‖<br />

+‖f(y(t n ), s) − f(y(t n ), t n )‖ds<br />

L‖r(s)‖ + L‖y(s) − y(t n )‖ + L|s − t n |ds<br />

L‖r(s)‖ + L‖f(y(t n ), t n )(s − t n )‖ + L|s − t n |ds<br />

t n<br />

L‖r(s)‖ds +<br />

m−1<br />

∑<br />

n=0<br />

t 0<br />

L‖r(s)‖ds + h −1 L(M + 1)h 2 /2<br />

≤ L(M + 1)h/2 +<br />

∫ t<br />

t 0<br />

L‖r(s)‖ds.<br />

L(M + 1)(s − t n ) 2 | t n+1<br />

t n<br />

/2<br />

Da diese Abschätzung auch für t ∈ [t m , t m+1 ] gilt, liefert die Anwendung des Gronwallschen<br />

Lemmas<br />

‖r(t)‖ ≤ 1 2 L(M + 1)heL(t−t 0)<br />

(9)<br />

31


<strong>und</strong> somit die Behauptung.<br />

□<br />

Bemerkung 3.13 Störungen der Anfangsbedingungen können in der obigen Abschätzung mitbehandelt<br />

werden. Es ergibt sich dann<br />

‖r(t)‖ ≤ ((‖x 0 − y(t 0 )‖) + 1 2 L(M + 1)h)eL(t−t 0) .<br />

Definition 3.14 Eine Funktion f (das obige Verfahren) heißt konvergent von der Ordnung<br />

O(h m ) für h → 0, falls positive Konstanten C <strong>und</strong> h 0 existieren, so dass für alle h ∈ (0, h 0 ]<br />

die Abschätzung ‖f(h)‖/‖h m ‖ ≤ C gilt. Eine Funktion f heißt konvergent von der Ordnung<br />

o(h m ) für h → 0, falls lim h→0<br />

‖f(h)‖<br />

‖h m ‖ = 0.<br />

Die gewonnene Abschätzung ist eher von theoretischem Interesse wie das folgende Beispiel<br />

zeigt.<br />

Beispiel 3.15 Betrachte ẋ = −100x mit x(0) = 1 für t ∈ [0, 1]. Die Lösung x(t) = e −100t wird<br />

durch das dazugehörige Eulerverfahren approximiert. Es lautet y(t n ) = y(t n−1 )−100hy(t n−1 ) =<br />

(1 − 100h)y(t n−1 ) <strong>und</strong> so ergibt sich y(t n ) = (1 − 100h) n . Der Fehler x(nh) − y(nh) =<br />

e −100nh − (1 − 100h) n ist sehr klein, auch für nicht so kleines h. Die obige Abschätzung (9)<br />

liefert mit M = sup x∈[0,1] |f(x)| = 100, dass<br />

‖r(t)‖ ≤ 1 2 100(100 + 1)he100 ∼ 1.35 × 10 47 h.<br />

Soll der Fehler tatsächlich kontrolliert werden, muß parallel zum Berechnen der Lösung die<br />

Gleichung für den Fehler integriert werden.<br />

Wir untersuchen die Struktur der obigen Abschätzung genauer. Unabhängig vom verwendeten<br />

Näherungsverfahren ergibt sich stets<br />

m−1<br />

∑<br />

‖r(t)‖ ≤ ‖ (<br />

≤<br />

∫ tn+1<br />

n=0 t n<br />

m−1 ∫ tn+1<br />

∑<br />

n=0 t n<br />

m−1<br />

∑<br />

∫ tn+1<br />

+‖ (<br />

n=0 t n<br />

f(y(s) + r(s), s)ds − (y(t n+1 ) − y(t n ))‖<br />

‖f(y(s) + r(s), s) − f(y(s), s)‖ds<br />

f(y(s), s)ds − (y(t n+1 ) − y(t n )))‖.<br />

Ist die Näherungslösung y = y(t) auf [t 0 , t e ] beschänkt, so läßt sich der erste Ausdruck unabhängig<br />

von h wie oben durch ∫ t<br />

t 0<br />

L‖r(s)‖ds mit einer Konstante L abschätzen. Der zweite<br />

Ausdruck<br />

m−1<br />

∑<br />

∫ tn+1<br />

Res(y) = ( f(y(s), s)ds − (y(t n+1 ) − y(t n )))<br />

t n<br />

n=0<br />

wird als Residuum, bzw. als formaler Fehler bezeichnet. Allgemein gilt<br />

32


Theorem 3.16 Sei f : R d × [t 0 , t e ] → R d Lipschitz-stetig mit Konstante L in x <strong>und</strong> t. Es sei<br />

y = y(t) eine Näherungslösung mit y(t 0 ) = x 0 . Es gebe eine Konstante C y <strong>und</strong> ein m ∈ N so<br />

dass für alle h ∈ [0, 1] gilt:<br />

sup ‖Res(y)(t)‖ ≤ C y h m .<br />

t∈[t 0 ,t e]<br />

Dann gibt es ein h 0 > 0 <strong>und</strong> ein C > 0, so dass für alle h ∈ (0, h 0 ] die Abschätzung<br />

sup ‖x(t) − y(t)‖ ≤ Ch m<br />

t∈[t 0 ,t e]<br />

gilt, d.h. die Näherungslösung y = y(t) konvergiert gegen die exakte Lösung x = x(t) für<br />

h → 0 mit einer Rate O(h m ).<br />

Beweis: Unter diesen Voraussetzungen erfüllt die Differenz r(t) = x(t)−y(t) die Ungleichung<br />

‖r(t)‖ ≤<br />

∫ t<br />

Die Anwendung des Gronwallschen Lemmas liefert<br />

t 0<br />

L‖r(s)‖ds + C y h m<br />

‖r(t)‖ ≤ C y h m e L(t−t 0)<br />

(10)<br />

<strong>und</strong> somit die Behauptung.<br />

Zusammenfassung: Bleiben die Lösungen y = y(t) eines Näherungsverfahrens unabhängig<br />

von der Schrittweite beschränkt, <strong>und</strong> ist der formale Fehler von der Ordnung O(h m ), (was<br />

ebenfalls die Beschränktheit von y = y(t) voraussetzt) so wird die exakte Lösung x = x(t)<br />

durch ihre Näherung y = y(t) bis auf einen Fehler der gleichen Ordnung O(h m ) approximiert.<br />

Beispiel 3.17 Es kann sinnvoll sein das verwendete Verfahren der Struktur des Problems anzupassen.<br />

Betrachte die lineare Differentialgleichung x˙<br />

1 = x 2 <strong>und</strong> x˙<br />

2 = −x 1 . In der Phasenebene<br />

sind die Lösungen durch Kreise gegeben. Das Eulerverfahren berechnet allerdings<br />

nach außen laufende Spiralen. Denn betrachte den Kreis mit Radius 1. Ein Eulerschritt von<br />

(x − 1, x 2 ) = (1, 0) startend ergibt (1, 0) + (0, −h) = (1, −h), was außerhalb des Kreises mit<br />

Radius 1 liegt. Sinnvoller erweist sich hier die Trapezregel<br />

y(t n+1 ) = y(t n ) + 1 2 h(f(y(t n+1), t n+1 ) + f(y(t n ), t n )),<br />

welche die Hamiltonsche Struktur des Problems erhält. Hier ergibt sich das implizite Schema<br />

y 1 (t n+1 ) = y 1 (t n ) + 1 2 h(y 2(t n+1 ) + y 2 (t n )), y 2 (t n+1 ) = y 2 (t n ) − 1 2 h(y 1(t n+1 ) + y 1 (t n )).<br />

Für das obige Beispiel ergibt sich als Bildpunkt<br />

y 1 = 1 + 1 2 hy 2, y 2 = − 1 2 h(y 1 + 1).<br />

□<br />

33


<strong>und</strong> somit y 1 = 1 + 1 2 h(− 1 2 h(y 1 + 1)), was über y 1 = 1 − 1 4 h2 y 1 − 1 4 h2 die Werte<br />

y 1 = (1 − 1 4 h2 )/(1 + 1 4 h2 ) <strong>und</strong> y 2 = −h/(1 + 1 4 h2 )<br />

ergibt. Damit liegt (y 1 , y 2 ) ebenfalls auf dem Kreis mit Radius 1.<br />

Der formale Fehler, des so über die Trapezregel definierten Algorithmus berechnet sich zu<br />

Res(y)(t) =<br />

=<br />

m−1<br />

∑<br />

(<br />

∑<br />

(<br />

n=0<br />

∫ tn+1<br />

n=0<br />

m−1 ∫ tn+1<br />

t n<br />

f(y(s), s)ds − (y(t n+1 ) − y(t n )))<br />

t n<br />

f(y(s), s)ds − 1 2 h(f(y(t n+1), t n+1 ) + f(y(t n ), t n )))<br />

Da der Fehler<br />

∫ tn+1<br />

t n<br />

f(y(s), s)ds − 1 2 h(f(y(t n+1), t n+1 ) + f(y(t n ), t n ))<br />

der Trapezregel bei der Berechnung von Integralen [DB94] (der lokale Diskretisierungsfehler)<br />

von der Ordnung O(h 3 ) ist, folgt für den formalen Fehler (der globale Diskretisierungsfehler)<br />

sup ‖Res(y)(t)‖ ≤ O(h 2 ),<br />

t∈[t 0 ,t e]<br />

falls y = y(t) beschränkt ist. Damit werden Lösungen von <strong>Differentialgleichungen</strong> durch die<br />

Trapezregel eine Ordnung (O(h 2 )) besser als durch das Eulerverfahren (O(h)) approximiert.<br />

Im Prinzip gibt es zu jedem Quadraturverfahren zur Berechnung von Integralen mindestens ein<br />

Näherungsverfahren zur Lösung gewöhnlicher <strong>Differentialgleichungen</strong>. Siehe [DB94, Ise96,<br />

SH96]. Es ist aber Vorsicht geboten, wie das folgende Beispiel zeigt.<br />

Beispiel 3.18 Das Verfahren<br />

y(t n+2 ) − 3y(t n+1 ) + 2y(t n ) = h[ 13<br />

12 f(y(t n+2), t n+2 ) − 5 3 f(y(t n+1), t n+1 ) − 5 12 f(y(t n), t n )<br />

ist ein sogenanntes implizites Mehrschrittverfahren der Ordnung O(h 2 ). Damit approximieren<br />

wir die Lösung x(t) = 1 des Anfangswertproblems ẋ = 0, x(0) = 1. Das Näherungsverfahren<br />

lautet<br />

y(t n+2 ) − 3y(t n+1 ) + 2y(t n ) = 0<br />

<strong>und</strong> kann wie jede Differenzengleichung mit konstanten Koeffizienten durch den Ansatz y(t n ) =<br />

λ n gelöst werden. Das charakteristische Polynom λ 2 − 3λ + 2 = 0 besitzt die Wurzeln λ 1 = 1<br />

<strong>und</strong> λ 2 = 2. Damit lautet die allgemeine Lösung des Näherungsverfahrens<br />

y(t n ) = c 1 + c 2 2 n , (c j ∈ R)<br />

34


<strong>und</strong> für die gesuchte Näherung spezifizieren wir c 1 = 1 <strong>und</strong> c 2 = 0. Offensichtlich approximieren<br />

wir die gesuchte Lösung exakt. Machen wir aber nur einen kleinen Fehler bei der Anfangsbedingung<br />

<strong>und</strong> erhalten c 2 ≠ 0, so wirkt sich dies für n = 1/h Iterationen verheerend aus.<br />

Als Konsequenz folgt, dass die Eigenwerte des charakteristischen Polynoms notwendigerweise<br />

|λ| ≤ 1 erfüllen müssen, um überhaupt eine stabile Approximation erhalten zu können.<br />

Die bekanntesten Verfahren sind sogenannte Runge-Kutta Verfahren, welche auf der Gaussquadratur<br />

∫ b<br />

ν∑<br />

f(τ)ω(τ)dτ ∼ b j f(c j )<br />

a<br />

basieren. Dabei werden die 2ν Konstanten b j <strong>und</strong> c j <strong>und</strong> das Gewicht ω entsprechend gewählt.<br />

Siehe erneut [DB94, Ise96, SH96].<br />

j=1<br />

35


4 Asymptotische Stabilität<br />

Die Stabilität von Gleichgewichtslösungen oder periodischen Lösungen kann in vielen Fällen<br />

durch die linearisierte Gleichung nachgewiesen werden. Die mathematische Theorie geht auf<br />

Poincaré <strong>und</strong> Lyapunov zurück. Weiter wollen wir einen ersten Eindruck gewinnen, was passiert,<br />

wenn ein Fixpunkt oder eine periodische Lösung bei Verändern eines Parameters instabil<br />

wird.<br />

4.1 Fixpunkte<br />

Ist ein Fixpunkt x 0 unter seiner Linearisierung ẏ = Ay mit A = ∂f<br />

∂ x<br />

| x=x0 asymptotisch stabil, so<br />

gilt dies auch für das nichtlineare System.<br />

Theorem 4.1 Betrachte ẋ = Ax + g(x) mit x = x(t) ∈ R d , mit x(0) = x 0 <strong>und</strong> den folgenden<br />

Eigenschaften.<br />

i) Es sei A eine konstante d × d-Matrix, deren Eigenwerte λ wie in Abbildung 8 strikt negativen<br />

Realteil besitzen.<br />

Im<br />

Re<br />

Abbildung 8: Spektrum von A im stabilen Fall.<br />

ii) Es sei g : R d → R d Lipschitz-stetig in einer Umgebung U ⊂ R d von x = 0. Weiter gelte<br />

‖g(x)‖<br />

lim = 0.<br />

‖x‖→0 ‖x‖<br />

Dann existieren positive Konstanten C, δ <strong>und</strong> µ > 0, so dass<br />

‖x(t)‖ ≤ C‖x 0 ‖e −µt ,<br />

für alle t ≥ 0 aus ‖x 0 ‖ < δ folgt, d.h. x = 0 ist asymptotisch stabil <strong>und</strong> die δ-Umgebung wird<br />

mit einer exponentiellen Rate angezogen.<br />

Beweis: Der Beweis beruht auf der Idee, dass die nichtlinearen Terme in einer Umgebung von<br />

x = 0 in der Norm viel kleiner als der stets negative Realteil der Linearisierung sind. So erhalten<br />

wir zum Beispiel für x = x(t) ∈ R <strong>und</strong> A = −1 die Differentialungleichung<br />

ẋ = −x + O(x 2 ) ≤ −x + 1 2 x ≤ −1 2 x<br />

36


<strong>und</strong> somit die Konvergenz der Lösungen gegen x = 0.<br />

Nun zum eigentlichen Beweis: Sei φ(t) = S(t, 0) der Lösungsoperator der linearen Gleichung<br />

ẋ = Ax. Da die Eigenwerte von A strikt negativen Realteil besitzen, gibt es positive Konstanten<br />

C 0 (wegen möglicher Jordanblöcke) <strong>und</strong> µ 0 mit<br />

‖φ(t)‖ ≤ C 0 e −µ 0t<br />

für alle t ≥ 0. Aus den Voraussetzungen an g folgt, dass es für alle b > 0 ein δ 0 > 0 gibt, so<br />

dass ‖g(x)‖ ≤ b‖x‖ aus ‖x‖ ≤ δ 0 folgt. Die Variation der Konstantenformel ergibt<br />

x(t) = φ(t)x(0) +<br />

Mit den obigen Abschätzungen erhalten wir<br />

<strong>und</strong> somit<br />

‖x(t)‖ ≤ ‖φ(t)‖‖x 0 ‖ +<br />

∫ t<br />

≤ C 0 e −µ 0t ‖x 0 ‖ +<br />

e µ 0t ‖x(t)‖ ≤ C 0 ‖x 0 ‖ +<br />

0<br />

φ(t − s)g(x(s))ds.<br />

∫ t<br />

0<br />

∫ t<br />

0<br />

∫ t<br />

0<br />

‖φ(t − s)‖ ‖g(x(s)‖ds<br />

C 0 e −µ 0(t−s) b‖x(s)‖ds<br />

C 0 e µ 0s b‖x(s)‖ds.<br />

Wenden wir die Gronwallsche Ungleichung auf e µ 0t ‖x(t)‖ an, so erhalten wir<br />

e µ 0t ‖x(t)‖ ≤ C 0 ‖x 0 ‖e C 0bt<br />

bzw. ‖x(t)‖ ≤ C 0 ‖x 0 ‖e (C 0b−µ 0 )t .<br />

Wir wählen nun b = µ 0 /(2C 0 ) <strong>und</strong> erhalten so ein dazugehöriges δ 0 = δ 0 (b). Somit ist µ =<br />

µ 0 /2, ‖x(t)‖ ≤ C 0 ‖x 0 ‖e −µt <strong>und</strong> δ = C0 −1 δ 0 , womit die asymptotische Stabilität von x = 0<br />

folgt.<br />

□<br />

Beispiel 4.2 Betrachte ẍ + µẋ + sin x = 0 mit µ > 0, d.h. den harmonischen Oszillator mit<br />

Dämpfung. Wir erhalten das System<br />

ẋ 1 = x 2 ,<br />

x˙<br />

2 = −µx 2 − sin x 1 .<br />

Die Linearisierung um die Ruhelage (x 1 , x 2 ) = (0, 0) des Pendels lautet<br />

ẋ 1 = x 2 , ẋ 2 = −µx 2 − x 1 .<br />

( )<br />

0 1<br />

Die dazugehörige Matrix A =<br />

besitzt die Eigenwerte<br />

−1 −µ<br />

λ 1/2 = −µ ± √ µ 2 − 4<br />

.<br />

2<br />

Damit gilt Reλ 1,2 ≤ −µ/2 < 0 für µ > 0 <strong>und</strong> somit ist (x 1 , x 2 ) = (0, 0) im linearisierten wie<br />

auch im nichtlinearen System asymptotisch stabil.<br />

37


Beispiel 4.3 Betrachte ẋ = 0 · x + x 3 mit x(t) ∈ R. Hier ist die Voraussetzung des Satzes an<br />

A = 0 nicht erfüllt. So ist dann auch x = 0 im linearisierten System ẋ = 0 stabil, aber im<br />

nichtlinearen System instabil.<br />

Bemerkung 4.4 Offensichtlich gilt obiger Satz auch für zeitabhängiges g, falls die Voraussetzung<br />

an g gleichmäßig in der Zeit erfüllt ist. Mit Hilfe des Satzes von Floquet läßt sich<br />

obiger Satz dann auch im Falle von zeitlich periodischem A, d.h. A(t) = A(t + T ) für ein<br />

T > 0, beweisen, falls die Floquetexponenten alle negativen Realteil besitzen. Denn, wie<br />

oben bewiesen, erhalten wir durch die Koordinatentransformation x(t) = P (t)z(t) aus ẋ(t) =<br />

A(t)x(t) + g(x(t), t) das System<br />

ż(t) = Bz(t) + P −1 (t)f(P (t)z(t), t).<br />

mit P (t) die periodische Matrix, <strong>und</strong> B die konstante Matrix aus dem Satz aus Floquet. Da nach<br />

Definition die Floquetexponenten durch die Eigenwerte von B gegeben sind, kann obiger Satz<br />

jetzt auf dieses System angewendet werden. Für die Stabilität periodischer Lösungen autonomer<br />

<strong>Systeme</strong> ist dieser Satz wie wir sehen werden nicht anwendbar.<br />

Die Instabilität von Fixpunkten überträgt sich stets vom linearisierten System auf das nichtlineare<br />

System. Wir beweisen dies nun im Fall mindestens eines Eigenwertes mit positivem<br />

Realteil.<br />

Theorem 4.5 Betrachte ẋ = Ax + g(x) mit x = x(t) ∈ R d mit x(0) = x 0 <strong>und</strong> den folgenden<br />

Eigenschaften.<br />

i) Es sei A eine konstante d × d-Matrix mit mindestens einem Eigenwert mit strikt positivem<br />

Realteil. Siehe Abbildung 9.<br />

Im<br />

Re<br />

Abbildung 9: Spektrum von A <strong>und</strong> Phasenbild mit Sektor im instabilen Fall.<br />

ii) Es sei g : R d → R d Lipschitz-stetig in einer Umgebung U ⊂ R d von x = 0. Weiter gelte<br />

Dann ist der Fixpunkt x = 0 instabil.<br />

‖g(x)‖<br />

lim = 0.<br />

‖x‖→0 ‖x‖<br />

38


Beweis: Zum Nachweis dieses Satzes zeigen wir, dass um die linear instabile Richtung ein<br />

Kreissektor mit Radius ɛ existiert, in den die Lösungen seitlich eintreten <strong>und</strong> nur am Kreisbogen<br />

wieder austreten können. Als Beispiel betrachten wir das zweidimensiomale System<br />

ẋ 1 = x 1 + O(x 2 1 + x 2 2), ẋ 2 = −x 2 + O(x 2 1 + x 2 2).<br />

Das Phasenbild <strong>und</strong> der Sektor sind in Abbildung 9 dargestellt. Damit verlassen wir stets diese<br />

ɛ-Umgebung durch den Kreisbogen egal wie nahe wir innerhalb des Sektors an der Null starten.<br />

Nun zum eigentlichen Beweis. Wir machen zunächst eine Koordinatentransformation x = P y<br />

mit P eine konstante d × d-Matrix. Dann ergibt sich die Gleichung<br />

ẏ = By + P −1 g(P y),<br />

mit B =<br />

(<br />

B1<br />

0<br />

)<br />

0<br />

, wobei B 1<br />

B 2<br />

∈ R k×k zum Teil des Spektrums von A mit positivem<br />

Realteil <strong>und</strong> B 2 ∈ R d−k×d−k zum Teil des Spektrums von A mit nichtpositivem Realteil gehört.<br />

Es gibt ein σ > 0, so dass für alle Eigenwerte λ von B 1 gilt Reλ > σ. Aus der linearen<br />

Algebra sei bekannt, dass diese Koordinatentransformation so gewählt werden kann, dass alle<br />

Nichtdiagonalelemente kleiner als γ ≤ σ/20 sind (modifizierter Jordanblock).<br />

Wir definieren R 2 = ∑ k<br />

i=1 |y i| 2 <strong>und</strong> ρ 2 = ∑ d<br />

i=k+1 |y i| 2 .<br />

Aus den Voraussetzungen an g folgt wie oben, dass es für alle b > 0 ein δ 0 > 0 gibt, so dass<br />

‖g(x)‖ ≤ b‖x‖ aus ‖x‖ ≤ δ 0 folgt.<br />

Wir nehmen an, dass x = 0 stabil sei. Dann gibt es für alle ɛ > 0 ein δ > 0, so dass ρ(t)+R(t) <<br />

ɛ für all t ≥ 0 aus ρ(0) + R(0) < δ folgt. Aus den obigen Abschätzungen für die Eigenwerte<br />

von B 1 , die Nichtlinearität <strong>und</strong> die Nebendiagonalelemente folgt<br />

Wählen wir b = σ/10 so ergibt sich<br />

Andererseits ergibt sich in der selben Weise<br />

Da<br />

erhalten wir insgesamt<br />

<strong>und</strong> somit<br />

2RṘ ≥ 2σR2 − 2bR(ρ + R) − 2γR 2 .<br />

Ṙ ≥ σR/2 − bρ<br />

˙ρ ≤ σρ/20 + b(ρ + R).<br />

σR/2 − bρ − σρ/20 − b(ρ + R) ≥ σ(R − ρ)/4<br />

d<br />

(R − ρ) ≥ σ(R − ρ)/4<br />

dt<br />

R(t) − ρ(t) ≥ (R(0) − ρ(0))e σt/4 .<br />

Für Lösungen mit R(0) = 2ρ(0) folgt R(t) ≥ ρ(0)e σt/4 . Dies ist aber unter der Annahme der<br />

Stabilität R(t) + ρ(t) ≤ ɛ nicht möglich, egal wie klein ρ(0) > 0 bzw. δ > 0 gewählt wird. □<br />

39


Bemerkung 4.6 Die obige Bemerkung für den zeitlich periodischen Fall gilt im instabilen Fall<br />

entsprechend.<br />

Beispiel 4.7 Im obigen Beispiel des gedämpften Pendels erhielten wir die Eigenwerte<br />

λ 1/2 = −µ ± √ µ 2 − 4<br />

.<br />

2<br />

Damit gilt Reλ 1,2 ≤ −µ/2 > 0 für µ < 0 <strong>und</strong> somit ist (x 1 , x 2 ) = (0, 0) im linearisierten wie<br />

auch im nichtlinearen System instabil.<br />

4.2 Bifurkation<br />

Was passiert, wenn ein Fixpunkt bei Verändern eines Parameters instabil wird, d.h. im obigen<br />

Beispiel die Reibung µ negativ wird? Dies ist von Interesse, da so möglicherweise kompliziertere<br />

Dynamik gef<strong>und</strong>en <strong>und</strong> analytisch beschrieben werden kann. Anhand einfacher Beipiele<br />

wollen wir solche Situtation untersuchen.<br />

Beispiel 4.8 (Transkritische Bifurkation (von Fixpunkten)) Betrachte<br />

ẋ = µx − x 2 , (x = x(t) ∈ R).<br />

Der Fixpunkt x = x 1 = 0 ist asymptotisch stabil für µ < 0 <strong>und</strong> instabil für µ > 0. Bei µ = 0<br />

überquert wie in Abbildung 10 ein reeller Eigenwert die Imaginäre Achse.<br />

Es existiert ein weiterer Fixpunkt x = x 2 = µ, welcher für µ = 0 mit der trivialen Lösung<br />

Im<br />

Im<br />

Re<br />

Re<br />

µ µ 0<br />

Abbildung 10: Ein Eigenwert überquert die imaginäre Achse.<br />

x 1 = 0 zusammenfällt. Da wir im allgemeinen zunächst nur die triviale Lösung kennen, sagen<br />

wir, dass der Fixpunkt x 2 = µ aus der trivialen Lösung x 1 = 0 verzweigt oder bifurkiert.<br />

Die allgemeine Situation ist wie folgt. Gegeben ist ẋ = f(x, µ) mit µ ∈ R, x = x(t) ∈ R <strong>und</strong><br />

f hinreichend oft differenzierbar. Für alle µ ∈ R sei die triviale Lösung x 1 = 0 bekannt, d.h.<br />

f(x, µ) = xg(x, µ) mit einer hinreichend oft differenzierbaren Funktion g. Gilt<br />

∂f<br />

∂x | x=0 = (x ∂g<br />

∂x + g)| x=0 = g ≠ 0<br />

40


x<br />

µ<br />

Abbildung 11: Transkritische Bifurkation von Fixpunkten.<br />

für ein µ = µ 0 , so kann f nach dem Satz über implizite Funktionen nach x = x(µ) aufgelöst<br />

werden. Damit können in dieser Umgebung neben der trivialen Lösung x 1 = 0 keine weiteren<br />

Fixpunkte existieren. Mit Hilfe des Newtonverfahrens kann die Familie des trivialen Fixpunktes<br />

µ ↦→ x 1 (µ) im Parameterraum solange verfolgt werden, bis die Voraussetzungen des Satzes über<br />

implizite Funktionen verletzt sind. Siehe das Programmpaket AUTO von E. Doedel, welches in<br />

XPP enthalten ist. Notwendig für die Verzweigung bzw. Bifurkation von Fixpunkten ist daher<br />

∂f<br />

∂x | x=0 = (x ∂g<br />

∂x + g)| x=0 = g = 0<br />

für ein µ = µ 0 , d.h. g(0, µ 0 ) = 0. Ist nun die Nicht-Degeneriertheitsbedingung<br />

∂g<br />

∂µ | (x,µ)=(0,µ 0 ) ≠ 0<br />

erfüllt, so kann nach dem Satz über implizite Funktionen in einer Umgebung (x, µ) = (0, µ 0 )<br />

die Funktion g nach µ = µ(x) aufgelöst werden <strong>und</strong> daher bifurkiert für µ = µ 0 aus der<br />

trivialen Lösung eine von der Familie der trivialen Lösung verschiedener Fixpunkt x = x 2 (µ).<br />

Siehe Abbildung 11.<br />

Wir sprechen daher von einer transkritischen Bifurkation. Es findet ein Austausch der Stabilitäten<br />

statt. Für µ < 0 ist x = 0 stabil <strong>und</strong> x = µ instabil. Für µ > 0 ist x = 0 instabil <strong>und</strong><br />

x = µ stabil.<br />

Beispiel 4.9 Betrachte f(x, µ) = µx + x 2 + sin x. Es gilt f(0, µ) = 0 für alle µ ∈ R. Damit ist<br />

x = 0 für alle µ ∈ R die triviale Lösung. Es ist<br />

∂f<br />

∂x | x=0 = (µ − 2x + cos x)| x=0 = µ + 1<br />

<strong>und</strong> somit kann eine Verzweigung nur für µ + 1 = 0 stattfinden. Wir führen daher den kleinen<br />

Bifurkationsparameter µ + 1 = α ein <strong>und</strong> erhalten g = µ + x + sin(x)/x = α + x + O(x 2 ). Da<br />

die Nicht-Degeniertheitsbedingung ∂g/∂µ| x=0,µ=1 = 1 ≠ 0 erfüllt ist, findet eine transkritische<br />

Bifurkation von Fixpunkten x = −α + O(α 2 ) statt.<br />

Mittels eines Potenzreihenansatzes kann die Funktion x = x(α) = ∑ ∞<br />

n=1 c nα n näherungsweise<br />

berechnet werden. Es ergibt sich<br />

g = α(1 + c 1 ) + α 2 (c 2 − c 2 1 /6) + O(α3 )<br />

41


<strong>und</strong> so c 1 = −1 <strong>und</strong> c 2 = 1/6.<br />

Eine alternative Vorgehensweise ist das Skalieren der Lösungen ohne den Umweg über g direkt<br />

in f. Wir setzen x = αy <strong>und</strong> erhalten die skalierte Funktion<br />

F (y, α) = α −2 f(αy, 1 + α) = y + y 2 + O(α).<br />

Damit haben wir für α = 0 die einfache Gleichung F (y, 0) = y + y 2 , welche explizit gelöst<br />

werden kann. Mit dem Satz über implizite Funktionen können wir wegen<br />

dF<br />

dy | (y,α)=(y j ,0) = (1 + 2y)| (y,α)=(yj ,0) ≠ 0<br />

die Funktion F in einer Umgebung um (y, α) = (y j , 0) nach y auflösen <strong>und</strong> erhalten y 0 =<br />

0 + O(α) <strong>und</strong> y 1 = −1 + O(α).<br />

Beispiel 4.10 (Pitchfork-Bifurkation (von Fixpunkten)) Betrachte<br />

ẋ = µx − x 3 , (x = x(t) ∈ R).<br />

Die lineare Stabilitätsanalysis von x = 0 ist wie oben. Der Fixpunkt x = 0 ist asymptotisch<br />

stabil für µ < 0 <strong>und</strong> instabil für µ > 0. Bei µ = 0 überquert wie in Abbildung 10 ein reeller<br />

Eigenwert die imaginäre Achse. Für µ = 0 verzweigen zwei weitere Fixpunkte x 2,3 = ± √ µ<br />

aus der trivialen Lösung x 1 = 0. Es findet ein Austausch der Stabilitäten statt. Für µ < 0 ist<br />

x 1 = 0 stabil. Für µ > 0 ist x 1 = 0 instabil <strong>und</strong> x 2,3 = ± √ µ stabil, da die Linearisierung<br />

A = (µ − 3x 2 )| x=x2,3 = −2µ für µ > 0 den negativen Eigenwert −2µ besitzt. Da die Fixpunkte<br />

nur für µ > 0 existieren, sprechen wir von einer superkritischen Bifurkation, im Gegensatz zur<br />

subkritischen Bifurkation. Siehe Abbildung 12.<br />

x<br />

µ<br />

Abbildung 12: Eine superkritische Pitchfork-Bifurkation von Fixpunkten.<br />

Beispiel 4.11 Betrachte f(x, µ) = µx + sin x. Wieder wird x = 0 für µ = −1 instabil. Wir<br />

setzen α 2 = µ + 1 <strong>und</strong> x = αy. Die umskalierte Funktion<br />

F (y, α) = α −3 f(αy, 1 + α 2 ) = y − 1 6 y3 + O(α 2 ).<br />

42


kann für α = 0 explizit gelöst werden. Mit dem Satz über implizite Funktionen können wir<br />

y 1 = 0 + O(α 2 ) <strong>und</strong> y 2,3 = ± √ 6 + O(α 2 ) <strong>und</strong> somit x 1 = 0 <strong>und</strong> x 2,3 = ± √ 6 α + O(α 3 ) für<br />

α > 0 zeigen.<br />

Beispiel 4.12 (Sattel-Knoten-Bifurkation (von Fixpunkten)) Betrachte<br />

ẋ = µ − x 2 , (x = x(t) ∈ R).<br />

Hier entstehen zwei Fixpunkte x 1,2 = ± √ µ für µ = 0 aus dem nichts. Die Linearisierung um<br />

x 1,2 ist durch µ ∓ 2 √ µ gegeben. Damit ist x 1 instabil <strong>und</strong> x 2 stabil. Siehe Abbildung 13.<br />

x<br />

µ<br />

Abbildung 13: Die Sattel-Knoten-Bifurkation.<br />

Wie das folgende Beispiel zeigt können in mehr als einer Raumdimension aus einem Fixpunkt<br />

auch echt periodische Lösungen verzweigen. Eine Lösung x = x(t) der Gewöhnlichen Differentialgleichung<br />

heißt periodisch, falls es ein T > 0 gibt, so dass x(t) = x(t + T ) für alle<br />

t ∈ R.<br />

Beispiel 4.13 (Die Hopf-Bifurkation.) Betrachte das zweidimensionale Differentialgleichungssystem<br />

ẋ 1 = µx 1 + x 2 − x 1 (x 2 1 + x2 2 ), ẋ 2 = −x 1 + µx 2 − x 2 (x 2 1 + x2 2<br />

( )<br />

)<br />

µ 1<br />

mit µ ∈ R. Die Linearisierung A =<br />

um die triviale Lösung besitzt die Eigenwerte<br />

−1 µ<br />

λ 1,2 = µ±i, d.h. zwei konjugiert komplexe Eigenwerte mit nichtverschwindendem Imaginärteil<br />

überqueren wie in Abbildung 14 die imaginäre Achse.<br />

Führen wir Polarkoordinaten x 1 = r sin φ <strong>und</strong> x 2 = r cos φ mit r ≥ 0 <strong>und</strong> φ ∈ R/(2πZ) ein so<br />

transformiert sich dass das obige System in<br />

ṙ = µr − r 3 , ˙φ = 1,<br />

d.h. aus der trivialen Lösung x = 0 verzweigt bei µ = 0 eine Familie periodischer Lösungen<br />

{x = x per (t, µ, φ 0 ) | x 1 = √ µ sin(t + φ 0 ), x 2 = √ µ cos(t + φ 0 )}.<br />

43


Im<br />

Im<br />

Re<br />

Re<br />

Abbildung 14: Zwei konjugiert komplexe Eigenwerte mit nichtverschwindendem Imaginärteil<br />

überqueren die imaginäre Achse.<br />

Wir sprechen von einer superkritischen Hopf-Bifurkation. Diese Familie zieht für festes µ jede<br />

Lösung mit einer exponentiellen Rate O(exp(−2µt)) an. Siehe Abbildung 15.<br />

Abbildung 15: Das Phasenbild für µ > 0.<br />

Wie wir später sehen werden, findet diese Bifurkation generischerweise statt, wenn ein Fixpunkt<br />

dadurch instabil wird, dass ein Paar konjugiert komplexer Eigenwerte die imaginäre Achse<br />

überquert.<br />

4.3 Intervallabbildungen<br />

Bei der Untersuchung der Stabilität periodischer Lösungen werden wir die diskrete Poincaré-<br />

Abbildung verwenden. Deshalb schieben wir hier Betrachtungen zu Iterationen x n+1 = f(x n )<br />

mit f : R → R ein.<br />

Definition 4.14 Der Vorwärtsorbit eines Punktes x ∈ R ist die Menge der Punkte x, f(x), f 2 (x)<br />

usw. Er wird mit O + (x) bezeichnet. Ist f ein Homöomorphismus, so kann der Rückwärtsorbit<br />

44


O − (x) eines Punktes x ∈ R durch die Menge der Punkte x, f −1 (x), f −2 (x), . . . definiert werden.<br />

Der Orbit O(x) von x ist dann durch O(x) = O + (x) ∪ O − (x) gegeben.<br />

Definition 4.15 Ein Punkt x ∈ R heißt Fixpunkt von f, wenn f(x) = x gilt. Ein Punkt x ∈ R<br />

heißt periodischer Punkt der Periode n, wenn f n (x) = x gilt. Das kleinste solche n heißt minimale<br />

Periode. Die Menge der Iterierten eines periodischen Punktes definiert einen periodischen<br />

Orbit. Die Menge der Fixpunkte bezeichnen wir mit Fix(f). Die Menge der periodischen Punkte<br />

der Periode n bezeichnen wir mit Per n (f).<br />

Beispiel: Die Abbildung f(x) = −x besitzt den Fixpunkt x = 0. Jeder Punkt x ∈ R ist ein<br />

periodischer Punkt der Periode 2, da f 2 (x) = x.<br />

Beispiel: Sei S 1 = R/2πZ der Einheitskreis in der Ebene. Ein Punkt in S 1 ist eindeutig durch<br />

seinen Winkel θ festgelegt. Betrachte dann f(θ) = 2θ. Da f(θ) = f(θ + 2π) gilt, ist diese<br />

Abbildung wohldefiniert. Es gilt f n (θ) = 2 n θ, so daß θ ein periodischer Punkt der Periode n<br />

ist genau dann wenn 2 n θ = θ + 2kπ für ein k ∈ Z, d.h. wenn θ = 2kπ/(2 n − 1). Damit<br />

sind die periodischen Punkte der Periode n die (2 n −1)–ten Einheitswurzeln. Für n = 2 ergibt<br />

sich der 2-periodische Orbit (1/3, 2/3)2π. Für n = 3 ergeben sich die 3-periodischen Orbits<br />

(1/7, 2/7, 4/7)2π <strong>und</strong> (3/7, 6/7, 5/7)2π. Für n = 4 ergeben sich die 4-periodischen Orbits<br />

(1/15, 2/15, 4/15, 8/15)2π, (3/15, 6/15, 12/15, 9/15)2π <strong>und</strong> (7/15, 14/15, 13/15, 11/15)2π.<br />

Der Einfachheit halber betrachten wir im folgenden konkret die Familie der Abbildungen<br />

f µ (x) = µx(1 − x).<br />

Zunächst untersuchen wir die Fixpunkte <strong>und</strong> deren Stabilität.<br />

Lemma 4.16 Es gilt f µ (0) = f µ (1) = 0 <strong>und</strong> für alle µ > 1 existiert ein nicht trivialer Fixpunkt<br />

p µ = f µ (p µ ) = µ − 1<br />

µ<br />

∈ (0, 1).<br />

Beweis: Aus der Bedingung µx(1 − x) = x folgt sofort die Behauptung.<br />

□<br />

Lemma 4.17 Sei µ > 1. Für x < 0 oder x > 1 gilt fµ n (x) → −∞ für n → ∞<br />

Beweis: Wenn x < 0, dann gilt f µ (x) = µx(1−x) 1 <strong>und</strong> (1−x) > 1. Angenommen<br />

es existiert ein p < 0 mit lim n→∞ fµ n (x) = p. Dann gilt lim n→∞ fµ n+1 (x) = f µ (p) < p im<br />

Widerspruch zu lim n→∞ fµ n+1 (x) = p. Da f µ (x) < 0 für x > 1, ist das Lemma bewiesen. □<br />

Für µ ∈ (1, 3) ist der Fixpunkt p µ = µ − 1<br />

µ stabil. Im Gegensatz dazu ist der Fixpunkt x = 0<br />

instabil.<br />

Definition 4.18 Ein Fixpunkt p µ heißt stabil, wenn für alle ɛ > 0 ein δ > 0 existiert, so daß<br />

|f n µ (x) − p µ| < ɛ für alle n ∈ N, falls |x − p µ | < δ. Ist p µ nicht stabil, so heißt p µ instabil. Ein<br />

n-periodischer Punkt heißt stabil, falls er stabil unter der n-ten Iteration F n ist (entsprechend<br />

instabil).<br />

45


Zum Nachweis der Stabilität verwenden wir folgendes Kriterium.<br />

Theorem 4.19 Der Fixpunkt x = 0 ist stabil (bzw. instabil) unter der Iteration x n+1 =Bx n +g(x n ),<br />

g(x) = O(|x| 2 ), wenn |B| < 1 (bzw. |B| > 1).<br />

Beweis: Setze b = |B| − 1. Nach Voraussetzung gibt es ein ɛ > 0, so daß |g(x)| ≤ |b||x|/2 für<br />

alle |x| ≤ ɛ. Damit gilt im Fall |B| > 1, daß<br />

|x n+1 | ≥ |B||x n | − |b||x n | ≥ |1 + b/2||x n |<br />

für |x| ≤ ɛ, woraus unmittelbar die Instabilität folgt. Denn für alle δ > 0 gibt es ein n ∈ N mit<br />

|x n | ≥ |1 + b/2| n δ ≥ ɛ. Im Fall |B| < 1, d.h. auch |1 + b/2| < 1, folgt<br />

|x n+1 | ≤ |B||x n | − |b||x n | ≤ |1 + b/2||x n |<br />

<strong>und</strong> damit unmittelbar die Stabilität. Wähle dazu δ = ɛ.<br />

Bemerkung: Ist x ∈ R d , so ist x = 0 stabil, wenn alle Eigenwerte λ der Matrix B ∈ R d×d die<br />

Bedingung |λ| < 1 erfüllen. Gibt es ein Eigenwert mit |λ| > 1, so ist x = 0 instabil. Der Punkt<br />

x = 0 heißt hyperbolisch, wenn alle Eigenwerte λ der Matrix B ∈ R d×d die Bedingung |λ| ≠ 1<br />

erfüllen.<br />

Wir wenden dieses Kriterium nun an. Dazu betrachten wir die Linearisierung um die Fixpunkte<br />

i) x = 0:<br />

y n+1 = f ′ µ(0)y n<br />

mit f ′ µ (0) = µ(1 − 2x)| x=0 = µ. Da der Eigenwert µ der Linearierung für µ ∈ (1, 3) außerhalb<br />

des Einheitskreises {z ∈ C | |z| = 1} liegt, ist x = 0 instabil<br />

ii) x = p µ :<br />

y n+1 = f ′ µ(p µ )y n<br />

mit f µ ′ (p µ) = µ(1 − 2x)| x=pµ = µ(1 − 2(µ − 1)/µ) = −µ + 2. Da der Eigenwert −µ + 2 der<br />

Linearierung für µ ∈ (1, 3) innerhalb des Einheitskreises {z ∈ C | |z| = 1} liegt, ist x = 0<br />

stabil.<br />

Es gilt zusätzlich<br />

Lemma 4.20 Sei µ ∈ (1, 3) <strong>und</strong> x ∈ (0, 1), so gilt lim n→∞ f n µ (x) = p µ .<br />

Beweis: Sei zunächst µ ∈ (1, 2). Es gilt dann f µ (1/2) < 1/2. Für x ∈ (0, 1/2) folgt sofort,<br />

daß |f µ (x) − p µ | < |x − p µ |, womit sofort die Behauptung folgt. Ist x ∈ (1/2, 1), so folgt<br />

f µ (x) ∈ (0, 1/2) <strong>und</strong> die Überlegungen für x ∈ (0, 1/2) sind sofort anwendbar.<br />

Sei jetzt µ ∈ (2, 3). Hier betrachten wir fµ. 2 Aus dem Graph von fµ 2 ist sofort klar, daß es für<br />

µ


1<br />

0.8<br />

0.6<br />

0.4<br />

0.2<br />

0<br />

0 0.2 0.4 0.6 0.8 1<br />

1<br />

0.8<br />

0.6<br />

0.4<br />

0.2<br />

0<br />

0 0.2 0.4 0.6 0.8 1<br />

Abbildung 16: i) Die Funktion x ↦→ f µ (x) für µ ∈ (1, 2) ii) Die Funktion x ↦→ fµ 2 (x) für µ ∈ (2, 3).<br />

Wenn µ > 3 ist, wird das Verhalten mit zunehmendem µ komplizierter. Dieses Anwachsen<br />

an Komplexität wollen wir später im Detail untersuchen. Für µ > 4 liegt chaotische Dynamik<br />

vor, die wir nun genauer betrachten wollen. In diesem Fall gilt für das Maximum f µ (1/2) > 1.<br />

Damit gibt es eine offene Menge<br />

1.2<br />

1<br />

0.8<br />

0.6<br />

0.4<br />

0.2<br />

0<br />

0 0.2 0.4 0.6 0.8 1<br />

Abbildung 17: Die Funktion x ↦→ f µ (x) für µ > 4.<br />

A 0 = {x ∈ I = [0, 1] | f µ (x) > 1}.<br />

Für x ∈ A 0 gilt fµ 2 (x) < 0 <strong>und</strong> folglich f µ n (x) → −∞ für n → ∞. Definiere dann A 1 = {x ∈<br />

I | f µ (x) ∈ A 0 }. Für x ∈ A 1 gilt fµ 3 (x) < 0 <strong>und</strong> folglich f µ n (x) → −∞ für n → ∞. Weiter<br />

setzen wir<br />

A n = {x ∈ I | f n µ (x) ∈ A 0}<br />

= {x ∈ I | f j µ(x) ∈ I für j ≤ n, aber f n+1<br />

µ (x) ∉ I},<br />

d.h. A n besteht aus allen Punkten, die I bei der n + 1-ten Iteration verlassen.<br />

Wir analysieren nun die Dynamik auf der Menge<br />

Λ = I − (∪ ∞ n=0 A n),<br />

47


estehend aus den Punkten, die unter allen Iterationen in I bleiben.<br />

Wir zeigen zunächst, daß Λ eine Cantormenge ist. Die Menge I − A 0 besteht aus zwei abgeschlossenen<br />

Intervallen I 0 <strong>und</strong> I 1 , <strong>und</strong> f µ bildet I 0 , bzw. I 1 monoton auf I ab. Damit gibt es in I 0<br />

<strong>und</strong> I 1 zwei offene Intervalle, die durch f µ auf A 0 abgebildet werden. Die Menge A 1 ist die Vereinigung<br />

dieser Intervalle. Betrachte nun I − (A 0 ∪ A 1 ). Diese Menge besteht folglich aus vier<br />

abgeschlossenen Intervallen. Jedes dieser Intervalle wird durch fµ 2 monoton auf I abgebildet.<br />

Die Menge A n besteht damit aus 2 n offenen Intervallen. Entsprechend ist I − (A 0 ∪ . . . ∪ A n )<br />

die Vereinigung von 2 n+1 abgeschlossenen Intervallen. Jedes dieser Intervalle wird durch f n+1<br />

monoton auf I abgebildet.<br />

Diese Konstruktion erinnert uns an:<br />

Definition 4.21 Eine Menge Λ ist eine Cantormenge, wenn sie abgeschlossen, total unzusammenhängend<br />

<strong>und</strong> perfekt ist. Eine Menge heißt total unzusammenhängend, wenn sie keine offenen<br />

Intervalle enthält. Eine Menge heißt perfekt, wenn jeder Punkt Limespunkt anderer Punkte<br />

dieser Menge ist.<br />

Beispiel: Eine klassisches Beispiel einer solchen Menge erhalten wir indem wir aus I zunächst<br />

das Intervall (1/3, 2/3) entfernen. Danach werden die Intervalle (1/9, 2/9) <strong>und</strong> (7/9, 8/9)<br />

entfernt. Setzen wir diese Konstruktion fort, erhalten wir eine Cantormenge mit der gleichen<br />

Mächtigkeit wie I, aber mit Maß Null. Im n-ten Schritt besteht die erhaltenene Menge aus 2 n<br />

Intervallen der Länge 3 −n . Ein x ∈ [0, 1] ist in dieser Cantormenge, wenn x = ∑ ∞<br />

i=1 a i3 −i mit<br />

a i ∈ {0, 2}.<br />

Die oben konstruierte Menge Λ ist wie bereits erwähnt für alle µ > 4 eine Cantormenge. Wir<br />

beweisen hier<br />

Theorem 4.22 Für µ > 2 + √ 5 ist Λ eine Cantormenge.<br />

Beweis: Unter der Voraussetzung, daß µ > 2 + √ 5 ist, gilt |f ′ µ(x)| ≥ λ für ein λ > 1 <strong>und</strong> alle<br />

x ∈ I 0 ∪ I 1 . Nach der Kettenregel gilt |(f n µ )′ (x)| > λ n . Wir nehmen an Λ würde ein Intervall<br />

[x, y] enthalten. Nach dem Mittelwertsatz gibt es ein n ∈ N mit<br />

|fµ n (x) − f µ n (y)| ≥ inf |(fµ n )′ (α)| |x − y| ≥ λ n |x − y| > 1,<br />

α∈[x,y]<br />

was zur Folge hätte, daß entweder f n µ (x) oder f n µ (y) außerhalb von I liegen müssten. Damit<br />

muß Λ total unzusammenhängend sein.<br />

Λ ist als Schnitt abgeschlossener Mengen wieder abgeschlossen.<br />

Um zu zeigen, daß Λ perfekt ist, stellen wir zunächst fest, daß jeder Endpunkt der A k nach endlich<br />

vielen Iterationen auf 0 abgebildet wird. Sei nun p ∈ Λ isoliert, so muß jeder benachbarte<br />

Punkt das Intervall I nach endlich vielen Schritten verlassen <strong>und</strong> gehört damit zu einem A k .<br />

Entweder gibt es damit a) eine Folge von Endpunkten der A k die gegen p ∈ Λ konvergieren<br />

oder b) ein k ∈ N <strong>und</strong> eine Umgebung U um p, so daß fµ k (U/{p}) außerhalb I liegt.<br />

48


zu a) In diesem Fall ist p ∈ Λ nicht isoliert.<br />

zu b) Somit muß es ein n ∈ N geben, so daß f n (p) = 0 <strong>und</strong> f n (x) < 0 für alle x ∈ U/{p}.<br />

Damit gilt (fµ n )′ (p) = 0. Nach der Kettenregel gibt es damit ein i < n mit F ′ (f i (p)) = 0,<br />

woraus f i (p) = 1/2 <strong>und</strong> dann f i+1 (p) ∉ I folgt im Widerspruch zu f n (p) = 0.<br />

□<br />

Die so konstruierten Cantormengen sind Fraktale. Fraktale spielen in der Theorie der dynamischen<br />

<strong>Systeme</strong> eine wichtige Rolle. Attraktoren (Limesmenge der Gesamtheit der Lösungen<br />

für n → ∞) besitzen häufig fraktale Geometrie <strong>und</strong> werden dann als seltsam (engl. strange)<br />

bezeichnet. Ihnen kann eine nicht ganzzahlige Dimension zugewiesen werden. Fraktale spielen<br />

heute auch bei Computergrafiken <strong>und</strong> bei der Analyse von Börsenkurse eine wichtige Rolle.<br />

Einschub Fraktale:<br />

Der folgende Abschnitt beruht auf den Büchern [Man91, PR86, GH83]. Dort findet sich:<br />

Eine Menge mit nicht ganzzahliger Hausdorff-Dimension ist ein Fraktal.<br />

Definition 4.23 Die Hausdorff-Dimension einer Menge M ⊂ R m ist das Infimum aller d mit<br />

der folgenden Eigenschaft. Für alle ɛ > 0 gibt es ein δ > 0 <strong>und</strong> eine Überdeckung U von M, so<br />

daß die Mengen B ∈ U alle Radius kleiner als δ > 0 haben <strong>und</strong> ∑ B∈U (diamB)d < ɛ.<br />

Für euklidische Räume <strong>und</strong> glatte Mannigfaltigkeiten stimmt die Hausdorff-Dimension mit der<br />

üblichen Definition überein.<br />

Beispiel: Wir überdecken M = [0, 1] ∈ R (bzw. R m ) durch 1/δ viele Intervalle (bzw. m-<br />

dimensionale Kugeln) der Länge δ. Der Ausdruck<br />

1/δ<br />

∑<br />

∑<br />

(diamB) d = δ d = δ d−1<br />

B∈U<br />

kann für festes d > 1 durch die Wahl von einem kleinen δ > 0 kleiner als ein vorgegebenes<br />

ɛ > 0 gemacht werden. Das Infimum all dieser d ist 1.<br />

n=0<br />

0<br />

δ<br />

1<br />

Abbildung 18: Überdeckung von [0, 1] in R 2 .<br />

Beispiel: Die obige Cantormenge C kann nach Konstruktion durch 2 n Intervalle der Länge<br />

δ = 3 −n überdeckt werden. Der Ausdruck<br />

∑<br />

(diamB) d =<br />

B∈U<br />

2 n ∑<br />

j=0<br />

(3 −n ) d = (2/3 d ) n<br />

49


kann für d > ln 2 durch die Wahl von einem kleinen δ > 0 kleiner als ein vorgegebenes ɛ ><br />

ln 3<br />

0 gemacht werden. Da diese Abschätzung (ohne Beweis) auch scharf ist, ist die Hausdorff-<br />

Dimension der Cantormenge C daher ln 2 . Damit ist die Cantormenge C ein Fraktal.<br />

ln 3<br />

Wir suchen nun nach einem Modell für die von f µ auf Λ induzierte Dynamik. Dieses Modell<br />

wird als Definition für chaotisches Verhalten dienen.<br />

Einschub Shiftdynamik:<br />

Betrachte die Menge<br />

versehen mit der Metrik<br />

Σ 2 = 2 N = {a : N → {0, 1} | a = (a i ) i∈N }<br />

d(a, b) = ∑ j∈N<br />

2 −j |a j − b j |.<br />

Die Shiftabbildung σ : Σ 2 → Σ 2 wird durch (σ(a)) i = a i+1 definiert <strong>und</strong> ist offensichtlich<br />

stetig. Diese zunächst langweilig wirkende Abbildung kann als Inbegriff chaotischen Verhaltens<br />

angesehen werden.<br />

Lemma 4.24 i) Es existieren nicht triviale periodische Lösungen zu jeder Minimalperiode.<br />

ii) Es existiert ein dichter Orbit.<br />

iii) Es gilt die sensitive Abhängigkeit von den Anfangsbedingeungen, d.h. zu jedem a ∈ Σ 2 <strong>und</strong><br />

zu jedem δ > 0 existiert ein b ∈ Σ 2 <strong>und</strong> ein j ≥ 0, so daß d(σ j (a), σ j (b)) = 1/2, obwohl<br />

d(a, b) ≤ δ.<br />

Bemerkung: Punkt iii) entspricht der Unverhersagbarkeit von Ereignissen (z.B. bei der Wettervorhersage),<br />

denn: Ist der Wert von a ∈ Σ 2 nur bis auf einen Meßfehler δ bekannt, so liegen<br />

die Werte von a j nur für j ≤ j 0 mit j 0 = j 0 (δ) eindeutig fest. Für j ≥ j 0 sind die Werte von a j<br />

willkürlich, d.h. selbst der ungefähre Wert von σ j (a) ist unvorhersagbar.<br />

Bemerkung: Da die Menge der periodischen Lösungen abzählbar ist, enthält M eine überabzählbare<br />

Menge nichtperiodischer, beschränkter Lösungen.<br />

Beweis: i) Die 1-periodischen Lösungen sind zu a = 00000 . . . <strong>und</strong> a = 11111 . . . gegeben. Die<br />

2-periodischen Lösungen werden durch 00, 01, 10 <strong>und</strong> 11 erzeugt. Die 3-periodischen Lösungen<br />

werden durch 000, 001, 010, 100, 110, 101, 011 <strong>und</strong> 111 erzeugt, usw.<br />

ii) Wir betrachten den Orbit zur wie folgt konstruierten Anfangsbedingung a. Wir fügen an a<br />

nacheinander alle erzeugenden Sequenzen periodischer Lösungen an d.h. beginnend mit j = 0<br />

lautet<br />

a = 0100011011000001010100110101011111000000010010 . . .<br />

Zu einem vorgegebenem ɛ > 0 <strong>und</strong> b ∈ Σ 2 müssen wir ein n ∈ N finden, so daß d(b, σ n (a)) ≤ ɛ.<br />

Ein Punkt c ∈ Σ 2 erfüllt d(b, c) ≤ ɛ, wenn b j = c j für j ≤ j 0 (ɛ). Für j ≥ j 0 (ɛ) kann c j beliebig<br />

sein. Da a alle endlichen Sequenzen enthält gibt es ein n ∈ N mit (σ n (a)) j = b j für j ≤ j 0 (ɛ),<br />

womit die Behauptung folgt.<br />

50


iii) Sei a ∈ Σ 2 <strong>und</strong> δ > 0 gegeben. Setze dann b j = a j für j ≤ j 0 (δ) <strong>und</strong> a j0 (δ)+1 ≠ b j0 (δ)+1,<br />

womit die Behauptung folgt.<br />

□<br />

Die Shiftdynamik wird zur Definition chaotischen Verhaltens wie folgt verwendet.<br />

Definition 4.25 Ein dynamisches System x n+1 = f(x n ) mit f : R d → R d heißt chaotisch, falls<br />

sich in diesem System Shiftdynamik findet. Genauer: Es gibt eine Teilmenge Λ ⊂ R d <strong>und</strong> einen<br />

Homöomorphismus h : Λ → Σ 2 , so daß σ ◦ h = h ◦ f.<br />

Bemerkung: Die Abbildungen f <strong>und</strong> σ heißen dann konjugiert.<br />

Definition 4.26 Die Reiseroute von x ist die Folge h(x) = (s j ) n∈N = s 0 s 1 s 2 . . ., wobei s j = 0,<br />

wenn F j µ (x) ∈ I 0 <strong>und</strong> s j = 1, wenn F j µ (x) ∈ I 1.<br />

Theorem 4.27 Für µ > 2 + √ 5 ist h : Λ → Σ 2 ein Homöomorphismus.<br />

Beweis: Wir zeigen zunächst, daß h bijektiv ist.<br />

Wir nehmen an, daß es x, y ∈ Λ gibt mit h(x) = h(y). Dann liegen fµ n (x) <strong>und</strong> fµ n (y) auf der<br />

gleichen Seite von 1/2. Da f µ auf dieser Seite monoton ist, bleiben mit den Endpunkten des<br />

Intervals [fµ n (x), f µ n (y)] auch alle andern Punkte des Intervalls auf der gleichen Seite von 1/2<br />

<strong>und</strong> damit in Λ, was im im Widerspruch zur totalen Unzusammenhängigkeit von Λ steht.<br />

Um die Surjektivität zu zeigen, führen wir die folgende Bezeichnung ein. Sei J ⊂ I ein abgeschlossenes<br />

Intervall. Weiter sei<br />

fµ −n (J) = {x ∈ I | f µ n (x) ∈ J},<br />

d.h. Fµ −1 (J) ist das Urbild von J. Wenn J ⊂ I ein abgeschlossens Intervall ist, so besteht das<br />

Urbild aus zwei abgeschlossenen Intervallen, eines in I 0 <strong>und</strong> eines in I 1 . Zu s = s 0 s 1 s 2 . . .<br />

müssen wir ein x ∈ Λ mit h(x) = s konstruieren. Dazu definieren wir<br />

Es ist<br />

I s0 s 1 ...s n<br />

= {x ∈ I | x ∈ I s0 , f µ (x) ∈ I s1 , . . . , f n µ (x) ∈ I s n<br />

}<br />

= I s0 ∩ f −1<br />

µ (I s 1<br />

) ∩ . . . ∩ f −n<br />

µ (I s n<br />

).<br />

I s0 s 1 ...s n<br />

= I s0 ∩ f −1<br />

µ (I s1 ...s n<br />

).<br />

Wir nehmen an, daß I s1 ...s n<br />

ein nicht leeres abgeschlossenes Intervall ist. Nach den obigen Überlegungen<br />

besteht fµ −1 (I s1 ...s n<br />

) aus zwei abgeschlossenen Intervallen, je eines in I 0 <strong>und</strong> eines in<br />

I 1 . Damit ist I s0 ∩ fµ −1(I<br />

s 1 ...s n<br />

) ein einziges abgeschlossenes Intervall. Diese Intervalle erfüllen<br />

Damit folgt, daß<br />

I s0 ...s n<br />

= I s0 ...s n−1<br />

∩ f −n<br />

µ (I s n<br />

) ⊂ I s0 ...s n−1<br />

.<br />

∩ n≥0 I s0 ...s n<br />

51


nicht leer ist. Wenn x ∈ ∩ n≥0 I s0 ...s n<br />

, dann gilt x ∈ I s0 , f µ (x) ∈ I s1 , usw. <strong>und</strong> somit h(x) =<br />

(s 0 s 1 . . .), woraus die Surjektivität folgt.<br />

Um die Stetigkeit von h zu zeigen, wählen wir x ∈ Λ mit h(x) = s 0 s 1 . . .. Sei ɛ > 0 <strong>und</strong> wähle<br />

n ∈ N mit 1/2 n < ɛ. Die Menge der Intervalle I t0 ...t n<br />

für alle möglichen Kombinationen von<br />

t 0 . . . t n sind disjunkt <strong>und</strong> ihre Vereinigung enthält Λ. Es gibt 2 n+1 solche Intervalle <strong>und</strong> I s0 ...s n<br />

ist eines von ihnen. Wir wählem nun δ > 0, so daß aus |x − y| < δ <strong>und</strong> y ∈ Λ die Beziehung<br />

y ∈ I s0 ...s n<br />

folgt. Damit gilt aber, daß h(x) <strong>und</strong> h(y) in der ersten n + 1 Stellen übereinstimmen<br />

<strong>und</strong> somit<br />

d(h(x), h(y)) < 1 2 < ɛ. n<br />

Damit ist die Stetigkeit von h gezeigt. Analog folgt die Stetigkeit von h −1 .<br />

Es bleibt die Konjugiertheit der Flüsse zu zeigen.<br />

□<br />

Theorem 4.28 Es gilt h ◦ f µ = σ ◦ h.<br />

Beweis: Ein Punkt x ∈ Λ ist eindeutig durch ∩ n≥0 I s0 ...s n<br />

festgelegt. Es ist<br />

so daß<br />

da f µ (I s0 ) = I. Es ergibt sich<br />

I s0 ...s n<br />

= I s0 ∩ f −1<br />

µ (I s1 ) ∩ . . . ∩ f −n<br />

µ (I sn ),<br />

f µ (I s0 ...s n<br />

) = I s1 ∩ f −1<br />

µ (I s 2<br />

) ∩ . . . ∩ f −(n−1)<br />

µ (I sn ) = I s1 ...s n<br />

,<br />

h ◦ f µ (x) = h ◦ f µ (∩ ∞ n=0 I s 0 ...s n<br />

)<br />

= h(∩ ∞ n=1I s1 ...s n<br />

)<br />

= s 1 s 2 . . . = σ ◦ h(x).<br />

Zusammenfassend haben wir gezeigt:<br />

□<br />

Theorem 4.29 Sei f µ (x) = µx(1 − x) mit µ > 2 + √ 5. Dann gilt:<br />

a) Es gibt 2 n periodische Punkte der Periode n.<br />

b) Die Menge der periodischen Punkte liegt dicht in Λ.<br />

c) f µ besitzt einen dichten Orbit in Λ.<br />

Bemerkung: Der Nachweis der periodischen Punkte kann auch direkt erfolgen, denn der Graph<br />

von f n µ schneidet die Gerade y = x mindestens 2n -mal. Damit hat f n µ mindestens 2n Fixpunkte,<br />

bzw. f µ besitzt mindestens 2 n periodische Punkte der Periode n.<br />

Bemerkung: Die Konjugiertheit zur Shiftdynamik ist die strengste Definition von Chaos. Für<br />

praktische Zwecke gibt es weichere Definitionen, siehe [SU03].<br />

In zwei Raumdimensionen erfolgt der Nachweis chaotischen Verhaltens of über ein Zwischenmodell,<br />

das Smale’sche Hufeisen, siehe Abschnitt 6.2.<br />

52


Einschub: Periodenverdopplung <strong>und</strong> die Feigenbaumkaskade<br />

Für µ ≤ 3 existiert nach Lemma 4.20 als einzige periodische Lösung ein stabiler Fixpunkt. Für<br />

µ > 3 erhalten wir eine Kaskade von Periodenverdopplungen.<br />

Übung 4.30 Untersuche f µ mittels xppaut, insbesondere für µ ∈ (3, 4). Was passiert für<br />

µ > 4, was für 3.825 ≤ µ ≤ 3.86 ?<br />

Lösung. Eine Möglichkeit Übung 1.4 zu bearbeiten ist die folgende: kopiere das folgende xppaut-<br />

ODE file qf.ode<br />

2<br />

v m x<br />

# m=mu ist dummy-variable, d.h. parameter<br />

o m<br />

o m*x*(1-x)<br />

d<br />

in ein Verzeichnis <strong>und</strong> starte dort xppaut, d.h. xppaut qf.ode. Dann führe in xppaut die folgenden<br />

Schritte aus:<br />

1) unter Viewaxes wähle m ∈ [2.5, 4.5] für x-axes <strong>und</strong> x ∈ [0.1] für y-axes.<br />

2) unter Numerics, Method wähle discrete, sowie Total=200 <strong>und</strong> tRansient=150; hiermit<br />

(wie mit allem anderen) kann man spielen.<br />

3) unter Graphic stuff wähle (E)dit <strong>und</strong> dann Line type: 0.<br />

4) unter Initialconds wähle Mice <strong>und</strong> klick im Fenster rum.<br />

4b) unter Initialconds wähle New <strong>und</strong> dann x = 0.1 (z.B.). Anschließend wähle<br />

Initialconds, Range <strong>und</strong> dann m ∈ [2.5, 4.5], 200 Steps. Im Graphikfenster von xppaut sollte<br />

nun in etwa das Bild in Abb. 19 links erscheinen.<br />

x<br />

8<br />

4<br />

2<br />

1<br />

µ<br />

Abbildung 19: Die Feigenbaumkaskade f µ , numerisch <strong>und</strong> schematisch.<br />

Die numerische Simulation zeigt mit wachsendem µ eine Reihe von Periodenverdopplungen,<br />

siehe Abb.19. Die Werte µ j , bei denen diese stattfinden, häufen sich bei µ = µ ∞ . Überraschen-<br />

53


derweise gilt für großes j, daß<br />

µ ∞ − µ j ∼ Cδ −j ,<br />

wobei δ = 4.6692 . . . Feigenbaumkonstante heißt. Es zeigt sich außerdem, daß δ von der speziellen<br />

Wahl der Familie f µ unabhängig ist, d.h. wir erhalten das gleiche δ für (z.B.) f µ =µ sin(πx).<br />

Der Weg ins Chaos findet häufig in dieser universellen Art <strong>und</strong> Weise statt. Dies läßt sich analytisch<br />

erklären, siehe [SU03].<br />

Hier betrachten wir nur die ersten Periodenverdopplungen. Zunächst bemerken wir jedoch,<br />

wann keine Bifurkation stattfindet, vgl. Abb.20.<br />

Theorem 4.31 Kontinuierung von Fixpunkten. Sei f(x; µ) eine durch µ ∈ R parametrisierte<br />

Familie von differenzierbaren Funktionen mit f(x 0 ; µ 0 ) = x 0 <strong>und</strong> ∂ x f(x 0 , µ 0 ) ≠ 1. Dann<br />

existiert eine eindeutige lokale Auflösung x = x 0 (µ), d.h. es existieren Intervalle I um x 0 <strong>und</strong><br />

N um µ 0 <strong>und</strong> eine Funktion x 0 : N → I mit x 0 (µ 0 ) = x 0 <strong>und</strong> f(x 0 (µ), µ) = x 0 (µ), <strong>und</strong> f(·; µ)<br />

besitzt keine anderen Fixpunkte in I.<br />

Beweis: Übung<br />

□<br />

Wie wir bereits gesehen haben, wird der Fixpunkt p µ = µ − µ 1 bei µ=3 instabil. Da f ′ (p µ )=2−µ,<br />

ist für µ = 3 die Linearisierung durch y n+1 = −y n gegeben. Mittels des Satzes über implizite<br />

Funktionen kann durch Betrachten der Bedingung fµ(x) 2 − x = 0 nachgewiesen werden, daß<br />

eine zweiperiodische Lösung verzweigt, bzw. bifurkiert. Für theoretische Zwecke ist es häufig<br />

angenehmer statt f(x; µ) die Familie ˜f(x; µ) = f(x + x 0 (µ); µ) − x 0 (µ) zu betrachten, sodaß<br />

der Fixpunkt in 0 liegt. Dabei lassen wir die ˜ im weiteren wieder weg.<br />

Abbildung 20: Kontinuierung von Fixpunkten <strong>und</strong> Sattel–Knoten–Bifurkation.<br />

Theorem 4.32 Sattel–Knoten–Bifurkation Es sei f(0, µ 0 ) = 0, ∂ x f(0, µ 0 ) = 1, ∂ 2 x f(0, µ 0) ≠<br />

0 <strong>und</strong> ∂ µ f(0, µ 0 ) ≠ 0. Dann existiert eine Umgebung I von 0 <strong>und</strong> eine Funktion µ : I → R mit<br />

µ(0) = µ 0 , f(x, µ(x)) = x, <strong>und</strong> µ ′ (0) = 0, µ ′′ (0) = −(∂ 2 x f(0, µ 0))/(∂ µ f(0, µ 0 )).<br />

Beweis: Setze g(x, µ) = f(x, µ) − x, d.h.: g(x, µ) = 0 ⇒ f(x, µ) hat Fixpunkt x. Es gilt<br />

∂ µ g(0, µ 0 ) = ∂ µ f(0, µ 0 ) ≠ 0, <strong>und</strong> damit existiert nach dem Satz über implizite Funktionen eine<br />

eindeutige Auflösung µ(x) mit g(x, µ(x)) ≡ 0. Implizites Differenzieren liefert µ ′ (0) = 0 <strong>und</strong><br />

µ ′′ (0) = −(∂ 2 xf(0, µ 0 ))/(∂ µ f(0, µ 0 )). □<br />

54


Theorem 4.33 Perioden–Verdopplungs–Bifurkation Angenommen f(0, µ) = 0 für alle µ<br />

in einer Umgebung U von µ 0 , ∂ x f(0, µ 0 ) = −1, sowie ∂ µ ∂ x f 2 (0, µ 0 ) ≠ 0. Dann existiert<br />

eine Umgebung I von 0 <strong>und</strong> eine Funktion µ : I → R mit µ(0) = µ 0 , f(x, µ(x)) ≠ x <strong>und</strong><br />

f 2 (x, µ(x)) = x, <strong>und</strong><br />

Beweis: Setze g(x, µ) = f 2 (x, µ) − x. Der Satz über implizite Funktionen ist nicht direkt<br />

anwendbar, da ∂ µ g(0, µ) = 0. Deshalb setze<br />

h(x, µ) =<br />

{<br />

g(x, µ)/x x ≠ 0<br />

∂ x g(0, µ) x = 0 .<br />

Dann ist h glatt, h(0, µ 0 ) = 0 <strong>und</strong> ∂ µ h(0, µ 0 ) = ∂ µ ∂ x f 2 (0, µ 0 ) ≠ 0. Also existiert eine eindeutige<br />

Auflösung µ(x) mit h(x, µ(x)) ≡ 0, also insbesondere g(x, µ(x))/x = 0 für x ≠ 0. Also<br />

ist x ein 2-periodischer Punkt, <strong>und</strong> x ist kein Fixpunkt nach Satz 4.31.<br />

□<br />

Übung: Überprüfe die Voraussetzungen von Theorem 4.33 bei µ = 3.<br />

Als nächstes kann man die Stabilität der verzweigenden zweiperiodischen Lösung betrachten,<br />

d.h. die Stabilität des verzweigenden Fixpunktes von fµ 2 . Diese Vogehensweise ist im Prinzip<br />

für alle n durchführbar, liefert aber sicher keine Erklärung für die Zahl δ; siehe [SU03].<br />

4.4 Bemerkungen zu Iterationen in der komplexen Ebene<br />

In diesem Abschnitt betrachten wir Iterationen holomorpher Abbildungen der komplexen Ebene<br />

C. Wir wollen erklären in welchem Zusammenhang die bekannte Mandelbrotmenge [PR86]<br />

mit unseren bisherigen Überlegungen stehen. Als weitergehende Literatur verweisen wir auf<br />

[Dev89, CG93, Mil99].<br />

Im folgenden wollen wir uns auf die quadratische Abbildung<br />

{<br />

C → C<br />

Q c :<br />

z ↦→ z 2 + c<br />

der komplexen Ebene in sich beschränken. Diese ist mittels einer linearen Transformation<br />

h(x) = αx + β konjugiert zur bisher betrachteten Abbildung f µ (x) = µx(1 − x). Dabei ist<br />

β = 1/2 <strong>und</strong> αµ = −1. Zwischen c < 1/4 <strong>und</strong> µ > 1 besteht die Beziehung<br />

Die Mandelbrotmenge ist durch<br />

c = 1 2 µ − 1 4 µ2 .<br />

M = {c ∈ C | (z n ) n∈N bleibt beschränkt, wobei z n+1 = z 2 n + c, z 0 = 0} (11)<br />

55


definiert. Wir wollen einige elementare Eigenschaften von M beschreiben, siehe Abb.21. 5 Das<br />

Betrachten verschiedener (reller) Werte von c entspricht dem Betrachten von f µ für verschiedene<br />

Werte von µ. Der Wert µ ist in der Mandelbrotmenge, wenn die Folge zum Startwert<br />

x = 1/2 = h(0) beschränkt bleibt. Dies ist unter anderem dann der Fall, wenn ein stabiler<br />

Fixpunkt oder allgemein eine stabile n-periodische Lösung vorhanden ist. Deshalb suchen wir<br />

zunächst die Werte der Abbildung Q c (z) = z 2 + c, für welche ein stabiler Fixpunkt z 0 ∈ C<br />

vorhanden ist. Die Fixpunktbedingung liefert z 2 0 − z 0 + c = 0. Die Stabilitätsbedingung liefert<br />

|Q ′ c(z 0 )| = |2z 0 | ≤ 1. Aus letzterem schließen wir z 0 = re iφ mit φ ∈ R <strong>und</strong> r ∈ [0, 1/2]. Aus<br />

der Fixpunktbedingung ergibt sich dann, daß für alle c aus<br />

M 1 = {c = re iφ − r 2 e 2iφ | φ ∈ R, r ∈ [0, 1/2)}<br />

ein stabiler Fixpunkt existiert. Die Menge M 1 ist das Innere einer Kardiode (einer Herzkurve),<br />

deren Rand durch<br />

c = 1 4 − 1 4 (1 − eiφ ) 2 , (φ ∈ S 1 )<br />

gegeben ist, <strong>und</strong> stellt den Rumpf des Apfelmännchens dar.<br />

Wandern wir entlang der reellen Achse, so erreichen wir den Randpunkt von M 1 in welchem<br />

der Fixpunkt instabil wird <strong>und</strong> eine stabile zweiperiodische Lösung auftritt. Wir vermuten daher,<br />

daß die folgende Kugel, der Bereich ist, indem eine stabile zweiperiodische Lösung auftritt. Die<br />

Fixpunktbedingung ist<br />

Q 2 c (z) − z = (z2 + c) 2 + c − z = z 4 + 2cz 2 − z + (c 2 + c)<br />

= (z 2 − z + c)(z 2 + z + c + 1) = 0,<br />

da der Fixpunkt gleichzeitig eine zweiperiodische Lösung ist. Die Stabilitätsbedingung liefert<br />

|(Q 2 ) ′ (z)| = |4z 3 + 4cz| = |4z(z 2 + c + z − z + 1 − 1)|<br />

= | − 4z(z + 1)| = 4|c + 1|,<br />

d.h. für |c + 1| < 1/4 existiert eine stabile zweiperiodische Lösung. Entsprechend gehören die<br />

für c ∈ R bis c ∞ = c(µ ∞ ) auftretenden Mengen zu 2 l -periodischen Lösungen. Wie wir gesehen<br />

haben existieren weiter sogenannte periodische Fenster im chaotischen Bereich, z.B. eine 3–<br />

periodische Lösung für µ ∈ (µ a , µ b ) mit µ a ≈ 3.83, µ b ≈ 3.84, die wieder mit Perioden–<br />

verdopplungen instabil werden. In den entsprechenden c–Bereichen treten dann kleine Kopien<br />

des Rumpfes auf. Dies ist (u.a.) ein Gr<strong>und</strong> für die selbstähnliche Struktur der Mandelbrotmenge.<br />

Wir wollen schließlich überlegen, zu welchen Perioden die anderen Auswüchse am Rumpf M 1<br />

des Apfelmännchens gehören. Nach den obigen Berechnungen besitzt der Fixpunkt z 0 zu einem<br />

c auf dem Rand die Linearisierung F ′ (z 0 ) = 2z 0 = e iφ . Das linearisierte System<br />

y n+1 = e iφ y n<br />

5 zum eigenen graphischen Entdecken von M sei z.B. das Programm xfractint empfohlen<br />

56


esitzt n-periodische Lösungen y n = e inφ y 0 , wenn nφ ein Vielfaches von 2π ist, vgl. Satz 4.33.<br />

Damit treten in den Auswüchsen von M 1 drei-, vier-, fünf- usw. periodische Lösungen auf.<br />

Die Mandelbrotmenge besitzt eine Vielzahl erstaunlicher Eigenschaften <strong>und</strong> parametrisiert u.a. die<br />

Menge der Julia-Menge, siehe [SU03].<br />

Abbildung 21: Perioden <strong>und</strong> die Feigenbaumkaskade in der Mandelbrotmenge.<br />

4.5 Periodische Lösungen<br />

In diesem Abschnitt interessieren wir uns für die Stabilität echt periodischer Lösungen x = x(t)<br />

mit x(t) = x(t + T ) für ein T > 0 <strong>und</strong> alle t ∈ R bei autonomen Gewöhnlichen <strong>Differentialgleichungen</strong><br />

ẋ = f(x).<br />

Zunächst stellen wir fest.<br />

Lemma 4.34 Die Linearisierung um eine periodische Lösung einer autonomen Differentialgleichung<br />

besitzt stets den Floquetmultiplikator 1.<br />

Beweis: Sei x = x per (t) eine periodische Lösung, d.h. es gilt ẋ per (t) = f(x per (t)). Differenzieren<br />

wir diese Gleichung nach der Zeit, so erhalten wir für die Zeitableitung y(t) = ẋ per (t) die<br />

57


Differentialgleichung ẏ(t) = A(t)y(t) mit A(t) = ∂f | ∂x x=x per(t). Die Floquetmultiplikatoren sind<br />

durch die Eigenwerte des für t = T ausgewerteten linearen Evolutionsoperators S(t, 0) dieser<br />

periodischen Gleichung gegeben. Da y(t) = ẋ per (t) diese Gleichung löst, wird y(0) durch<br />

S(T, 0) in sich abgebildet, womit S(T, 0) den Eigenwert 1 besitzt.<br />

□<br />

Damit ist wie bereits erwähnt der obige Satz über die Stabilität von periodischen Lösungen hier<br />

nicht anwendbar. Deshalb gehen wir wie folgt vor.<br />

Es sei x(t) = x per (t) eine T -periodische Lösung der obigen Differentialgleichung. Dazu wählen<br />

wir eine (d − 1)-dimensionale Hyperebene H (den Poincaré-Schnitt) transversal zu dieser periodischen<br />

Lösung in einem Punkt x 0 . Aus Stetigkeitsgründen gibt es eine ganze Umgebung<br />

U ⊂ H um x 0 , aus der startende Lösungen die Hyperebene, aus der gleichen Richtung in der<br />

Nähe von x 0 , erneut durchstoßen. Siehe Abbildung 22.<br />

Der so zu x 1 ∈ U gehörende Durchstoßpunkt werden mit ˜x 1 ∈ H bezeichnet. Wir definieren<br />

x1<br />

x 0<br />

∼<br />

x 1<br />

H<br />

dann die sogenannte Poincaré-Abbildung<br />

{<br />

Abbildung 22: Konstruktion der Poincaré-Abbildung.<br />

Π :<br />

U → H<br />

Π(x 1 ) = ˜x 1<br />

.<br />

Offensichtlich ist x 0 ein Fixpunkt der Poincaré-Abbildung, d.h. Π(x 0 ) = x 0 . Weiter reicht es eine<br />

Poincaré-Abbildung zu betrachten, da Poincaré-Abbildungen Π j zu verschiedenen Poincaré-<br />

Schnitten durch feste Koordinatentransformationen S in einander übergehen, genauer Π 1 =<br />

S −1 ◦ Π 2 ◦ S. Damit gilt folglich auch Π n 1 = S −1 ◦ Π n 2 ◦ S, womit die folgende Definition Sinn<br />

macht.<br />

Definition 4.35 Es sei x(t) = x per (t) eine T -periodische Lösung der autonomen Differentialgleichung<br />

ẋ = f(x), <strong>und</strong> es sei Π : U → H die dazugehörige Poincaré-Abbildung durch x 0 .<br />

i) Die periodische Lösung heißt stabil, wenn es für alle ɛ > 0 ein δ > 0 gibt, so dass ‖Π n (x 1 ) −<br />

x 0 ‖ ≤ ɛ für alle n ∈ N aus ‖x 1 − x 0 ‖ ≤ δ mit x 1 ∈ H folgt.<br />

58


ii) Die periodische Lösung heißt instabil, falls dies nicht gilt.<br />

iii) Die periodische Lösung heißt asymptotisch stabil, falls zusätzlich lim n→∞ Π n (x 1 ) = x 0 gilt.<br />

Im folgenden unterscheiden wir nicht zwischen x ∈ H <strong>und</strong> x ∈ R d . Eine äquivalente Definition<br />

ist wie folgt.<br />

Definition 4.36 Es sei x(t) = x per (t) eine T -periodische Lösung der autonomen Differentialgleichung<br />

ẋ = f(x). Dann heißt die einparametrige Familie<br />

Γ = {x = x per (t + γ) | γ ∈ R}<br />

i) orbital stabil, wenn es für alle ɛ > 0 ein δ > 0 gibt, so dass inf γ∈R ‖x(t, x 1 ) − x per (γ)‖ ≤ ɛ<br />

für alle t ∈ R aus inf γ∈R ‖x 1 − x per (γ)‖ ≤ δ folgt.<br />

ii) orbital instabil, falls dies nicht gilt.<br />

iii) orbital stabil mit asymptotischer Phase γ 0 , falls es ein γ 0 ∈ R, mit<br />

gibt.<br />

lim ‖x(t, x 1) − x per (t + γ 0 )‖ = 0<br />

t→∞<br />

Wir betrachten zunächst zwei Beispiele.<br />

Beispiel 4.37 Es sei x = x per (t) eine periodische Lösung beim mathematischen Pendel<br />

ẋ 1 = x 2 , ẋ 2 = − sin x 1 .<br />

Wir wählen als Poincaré-Schnitt H die x 1 -Achse. Offensichtlich ist Π = I. Damit ist die periodische<br />

Lösung im Sinne der obigen Definition stabil. Da benachbarte periodische Lösungen<br />

aber verschiedene Umlaufzeiten besitzen, sind die periodischen Lösungen aber instabil im Sinne<br />

von Kapitel 4.1, d.h. y = 0 ist instabil in ẏ = A(t)y + O(|y| 2 ) mit A = ∂f<br />

∂x | x=x per(t) .<br />

Beispiel 4.38 Wir betrachten in Polarkoordinaten das ebene System<br />

ṙ = r − r 3 , ˙φ = 1.<br />

Um die Stabilität der periodischen Lösung r = 1 zu untersuchen , wählen wir erneut die<br />

x 1 -Achse als Poincaré-Schnitt H. Offensichtlich ist der Punkt x 1 attraktiv unter der Poincaré-<br />

Abbildung Π <strong>und</strong> damit ist die periodische Lösung r = 1 asymptotisch stabil.<br />

Es gilt wie im kontinuierlichen Fall folgender Stabilitätssatz.<br />

Theorem 4.39 Es sei x(t) = x per (t) eine T -periodische Lösung der autonomen Differentialgleichung<br />

ẋ = f(x) mit f ∈ C 1 (R d , R d ). Weiter sei Π : U → H die dazugehörige Poincaré-<br />

Abbildung durch x 0 . Erfüllen die d − 1 verallgemeinerten Eigenwerte µ der Linearisierung DΠ<br />

die Eigenschaft |µ| < 1, so ist die periodische Lösung asymptotisch stabil. Genauer, es gibt<br />

Konstanten C ≥ 1 <strong>und</strong> κ ∈ (0, 1), so dass<br />

‖Π n (x 1 ) − x 0 ‖ ≤ Cκ n ‖x 1 − x 0 ‖.<br />

59


Beweis: Wir setzen x = x 0 + y ∈ H. Dann gilt y n+1 = DΠy n + g(y n ) mit g(y n ) = o(‖y n ‖).<br />

Nach Voraussetzung gibt es ein µ 0 ∈ (0, 1) <strong>und</strong> eine Norm ‖ · ‖, so dass ‖DΠy n ‖ ≤ µ 0 ‖y n ‖.<br />

Die Existenz dieser Norm sei aus Numerik bekannt. Weiter gibt es für alle b > 0 ein δ 1 > 0, so<br />

dass ‖g(y)‖ ≤ b‖y‖ aus ‖y‖ ≤ δ 1 folgt. Wähle nun b so dass µ 0 + b = κ ∈ (0, 1) ist. Damit gilt<br />

‖y n+1 ‖ ≤ µ 0 ‖y n ‖ + b‖y n ‖ ≤ κ‖y n ‖<br />

<strong>und</strong> somit ‖y n ‖ ≤ κ n ‖y 0 ‖ → 0 für n → ∞. Da alle endlich- dimensionalen Normen äquivalent<br />

sind, folgt die Behauptung.<br />

□<br />

Korollar 4.40 Unter den Voraussetzungen dieses Satzes ist die periodische Lösung orbital stabil<br />

mit asymptotischer Phase.<br />

Beweis: Der Beweis folgt im nächsten Kapitel als direkte Konsequenz des Zentrumsmannigfaltigkeitensatzes.<br />

□<br />

Wie im letzten Kapitel überträgt sich die Instabilität vom linearisierten System auf das nichtlineare<br />

System. Analog zum dortigen Beweis folgt.<br />

Theorem 4.41 Es sei x(t) = x per (t) eine T -periodische Lösung der autonomen Differentialgleichung<br />

ẋ = f(x) mit f ∈ C 1 (R d , R d ). Weiter sei Π : U → H die dazugehörige Poincaré-<br />

Abbildung durch x 0 . Gibt es einen Eigenwert µ der Linearisierung DΠ mit der Eigenschaft<br />

|µ| > 1, so ist die periodische Lösung instabil.<br />

Beweis: ohne Beweis<br />

Vollständigkeitshalber bemerken wir noch, dass die d − 1 Eigenwerte der Abbildung DΠ vereinigt<br />

mit {1} mit den d Floquetmultiplikatoren der Linearisierung ẏ = ∂f | ∂x x=x per<br />

y zusammenfallen.<br />

Wie oben wollen wir nun der Frage nach gehen, was passiert wenn eine periodische Lösung<br />

instabil wird.<br />

Beispiel 4.42 (transkritische Bifurkation von periodischen Lösungen) Wir betrachten eine eindimensionale<br />

Poincaré-Abbildung Π µ : R → R mit Π µ (x) = µx − x 2 . Für alle µ ∈ R<br />

besitzt diese Abbildung den Fixpunkt x = 0, welcher einer periodischen Lösung der dazugehörigen<br />

zweidimensionalen gewöhnlichen Differentialgleichung entspricht. Die Linearisierung<br />

DΠ µ y = µy um x = 0 besitzt den Eigenwert µ, d.h. x = 0 wird instabil für µ = 1.<br />

Der Wert µ = −1 ist bei zweidimensionalen gewöhnlichen <strong>Differentialgleichungen</strong> wegen des<br />

Jordanschen Kurvensatzes nicht möglich. Wir führen den Bifurkationsparameter α = µ − 1<br />

ein <strong>und</strong> erhalten aus der Fixpunktbedingung Π µ (x) = x, dass x = (1 + α)x − x 2 <strong>und</strong> so den<br />

zweiten Fixpunkt x = α. Es findet daher eine transkritische Bifurkation von Fixpunkten der<br />

Poincaré-Abbildung <strong>und</strong> somit eine transkritische Bifurkation von periodischen Lösungen der<br />

gewöhnlichen <strong>Differentialgleichungen</strong> statt.<br />

□<br />

60


Beispiel 4.43 (Pitchfork-Bifurkation von periodischen Lösungen) Wir betrachten eine eindimensionale<br />

Poincaré-Abbildung Π µ : R → R mit Π µ (x) = µx − x 3 . Hier führen wir den Bifurkationsparameter<br />

α 2 = µ − 1 ein <strong>und</strong> erhalten aus der Fixpunktbedingung Π µ (x) = x, dass<br />

x = (1 + α 2 )x − x 3 <strong>und</strong> so zwei weitere Fixpunkte x 2,3 = ±α. Es findet daher eine Pitchfork-<br />

Bifurkation von Fixpunkten der Poincaré-Abbildung <strong>und</strong> somit eine Pitchfork-Bifurkation von<br />

periodischen Lösungen der gewöhnlichen <strong>Differentialgleichungen</strong> statt.<br />

Neben der Sattel-Knoten-Bifurkation von Fixpunkten können bei eindimensionalen Abbildungen<br />

auch noch 2-periodische Lösungen verzweigen.<br />

Beispiel 4.44 (Periodenverdopplung) Wir betrachten erneut die eindimensionale Abbildung<br />

Π µ (x) = µx − x 2 , aber nun mit µ in der Nähe von −1. Wird der Fixpunkt x = 0 für µ = −1<br />

instabil, so liefert die Fixpunktbedingung x = −x − x 2 . Offensichtlich besitzt diese Gleichung<br />

für kleines |µ + 1| in der Nähe von x = 0 keinen weiteren Fixpunkt. Da die Linearisierung<br />

DΠy = −y für µ = −1 sogenannte 2-periodische Lösungen, d.h. (DΠ) 2 x = x, besitzt, untersuchen<br />

wir<br />

Π 2 µ(x) = µ(µx − x 2 ) − (µx − x 2 ) 2 .<br />

Wir führen den Bifurkationsparameter µ = −(1 + α) ein <strong>und</strong> erhalten<br />

Π 2 −(1+α) (x) = x(1 + 2α + αx − 2x2 + O(|x|(|α 2 | + |αx 2 | + |x 3 |)) = x<br />

Die Fixpunktbedingung kann durch x durchdvidiert werden <strong>und</strong> auf beiden Seiten kann die 1<br />

gekürzt werden. Mit den Skalierungen α = β 2 <strong>und</strong> x = βy liefert dies die Fixpunktbedingung<br />

β −3 (Π 2 −1+β 2(βy) − βy) = 2y − 2y3 + O(|β|)<br />

<strong>und</strong> so erhalten wir mit dem Satz über implizite Funktionen zwei nichttriviale Lösungen y 2,3 =<br />

±1 + O(β). Damit verzweigen zwei nichttriviale Fixpunkte x 2,3 (1 + β 2 ) = ±β + O(β 2 ) für Π 2 µ<br />

aus der trivialen Lösung x = 0. Dem entspricht eine zweiperiodische Lösung der Abbildung<br />

Π. Bei einer Gewöhnlichen Differentialgleichung entsprcht diese Bifurkation einer Periodenverdopplung<br />

einer periodischen Lösung. Siehe Abbildung 23.<br />

Beispiel 4.45 Die Differentialgleichung von Rössler<br />

⎛ ⎞ ⎛<br />

⎞<br />

x −(y + z)<br />

d<br />

⎜<br />

dt ⎝ y ⎟<br />

⎠ = ⎜<br />

⎝ x + 1y<br />

⎟<br />

5 ⎠ .<br />

1<br />

z + z(x − a) 5<br />

ist ein Beispiel für ein System, wo sukzessive Periodenverdopplungen letztendlich zu chaotischem<br />

Verhalten führen. Dabei ist a ein reller Parameter. Ausgehend von einem attraktiven<br />

periodischen Orbit für a = 2.2 finden durch Erhöhung von a Periodenverdopplungen statt, bis<br />

bei a > 4.3 bereits ein strange attractor vorliegt.<br />

61


T-periodisch<br />

20<br />

10<br />

0<br />

2 T-periodisch<br />

-5<br />

0<br />

5<br />

-5<br />

10 -10<br />

0<br />

5<br />

Abbildung 23: Periodenverdopplung einer periodischen Lösung <strong>und</strong> der Rössler Attraktor.<br />

Der Attraktor kann in MAPLE mittels folgender Befehle gezeichnet werden.<br />

restart:with(plots):<br />

sys:=diff(x(t),t)+y(t)+z(t),diff(y(t),t)-x(t)-0.17*y(t),<br />

diff(z(t),t)-0.4-x(t)*z(t)+8.5*z(t),x(0.)=1.0,y(0.)=0.,z(0.)=0.;<br />

fcn:=x(t),y(t),z(t);<br />

sol:=dsolve(sys,fcn,type=numeric,method=rkf45);<br />

odeplot(sol, [y(t),x(t),z(t)],0..200,numpoints=6000, axes=boxed, color=red);<br />

Beispiel 4.46 (Bifurkation quasiperiodischer Lösungen, invariante Tori) Der Einfachheit halber<br />

betrachten wir hier lineare zweidimensionale Abbildungen Π : R 2 → R 2 . Instabilitäten<br />

des Fixpunktes x = 0 im Falle, dass ein reeller Eigenwert den Einheitskreis überquert, haben<br />

wir oben behandelt. Wir interessieren uns nun für den Fall, dass ein Paar konjugiert komplexer<br />

Eigenwerte e ±2πiν den Einheitskreis überquert. Wir unterscheiden zwei Fälle i) ν ∈ Q <strong>und</strong> ii)<br />

ν ∈ R/Q. Im Fall ν = p/q ∈ Q, ggT(p, q) = 1, erhalten wir eine q-periodische Lösung.<br />

Ist ν ∈ R/Q, so liegt der Orbit oder die Trajektorie der Lösung dicht auf dem Einheitskreis.<br />

In der Gewöhnlichen Differentialgleichung entspricht dieser Verzweigung eine Verzweigung<br />

quasiperiodischer Lösungen. Eine Funktion x(t) heißt quasiperiodisch, falls es eine Funktion<br />

g : T n → R, mit T n der n-dimensionale Torus, gibt, so dass x(t) = g(ω 1 t, ω 2 t, . . . , ω n t) mit<br />

ω i /ω j ∉ Q für mindestens ein Paar i ≠ j.<br />

Die tatsächliche Verzweigung solcher Lösungen ist eine höchst delikate Angelegenheit. Siehe<br />

auch KAM Tori <strong>und</strong> Arnold-Zungen.<br />

Früher hat man angenommen, dass Turbulenz bzw. chaotisches Verhalten durch fortgesetzte<br />

Bifurkationen dieser Art zustande kommen (Landau-Sequenz). Diese Theorie wurde durch die<br />

Arbeit [RT71] wiederlegt, welche zeigt, dass schon die nächste Verzweigung zu chaotischem<br />

Verhalten führen kann.<br />

62


5 Dynamik in der Nähe eines Fixpunktes<br />

In diesem Kapitel wollen wir Methoden bereit stellen, die es erlauben die Dynamik in der<br />

Nähe eines Fixpunktes oder einer periodischen Lösung, d.h. in der Nähe eines Fixpunktes der<br />

Poincaré-Abbildung zu klassifizieren, insbesondere wollen wir das Verzweigungsverhalten bei<br />

Eintreten von Instabilität auch in höheren Raumdimensionen untersuchen.<br />

5.1 Der Satz von Hartman-Grobman<br />

Der Satz von Hartman-Grobman macht eine Aussage über die Dynamik in der Nähe von hyperbolischen<br />

Punkten (,d.h. keine Eigenwerte auf der imaginären Achse) in höheren Raumdimensionen.<br />

Wie im zweidimensionalen Fall sehen in einer Umgebung des Fixpunktes das<br />

Phasenbild des nichtlinearen Systems <strong>und</strong> des linearen Systems qualitativ gleich aus.<br />

Theorem 5.1 Sei x 0 ein Fixpunkt der autonomen Differentialgleichung ẋ = f(x) mit f ∈<br />

C 1 (R d , R d ). Den dazugehörigen nichtlinearen Lösungsoperator (den Fluß) bezeichnen wir mit<br />

Φ(t, ·). Besitzt A = ∂f | ∂x x=x 0<br />

keine rein imaginären Eigenwerte, dann gibt es einen in einer<br />

Umgebung U von x 0 definierten Homöomorphismus h, welcher die Lösungskurven (die Orbits,<br />

die Trajektorien) des nichtlinearen Flußes Φ(t, ·) in die des linearen Flußes e At überführt, d.h.<br />

die Flüße sind konjugiert h ◦ Φ(t, ·) = e At ◦ h(·).<br />

Beweis: Der Beweis geht analog zum diskreten Fall. Siehe unten.<br />

Dies bedeutet, dass ẋ = f(x), x| t=0 = x 0 wie folgt gelöst werden kann. Wir lösen ẏ = Ay mit<br />

der Anfangsbedingung y 0 = h(x 0 ) <strong>und</strong> erhalten y(t, y 0 ) = e At y 0 als Lösung. Die Lösung der<br />

ursprünglichen Gleichung ist dann durch x(t, x 0 ) = h −1 (y(t, h(x 0 )) gegeben.<br />

Bemerkung 5.2 Wir sehen später bei der Untersuchung von sogenannten Normalformen, dass<br />

die Differenzierbarkeit von h nur unter zusätzlichen Nichtresonanzbedingungen an die Eigenwerte<br />

gefolgert werden kann.<br />

Beispiel 5.3 Wir vergleichen die Lösungen des nichtlinearen Systems<br />

mit denen des linearisierten Systems<br />

ẋ 1 = x 1 + O(x 2 1 + x2 2 ), ẋ 2 = −x 2 + O(x 2 1 + x2 2 )<br />

ẏ 1 = y 1 , ẏ 2 = −y 2 .<br />

Wir definieren h dann so, dass wir einander entsprechende Orbits <strong>und</strong> damit auch die daraufliegenden<br />

Punkte zuordnen.<br />

Beispiel 5.4 Wir vergleichen die Lösungen des nichtlinearen Systems ẋ = −x 3 mit denen des<br />

linearisierten Systems ẏ = 0. Offensichtlich sind die Flüße nicht zueinander konjugiert. Wären<br />

beide Füsse miteinander konjugiert, so könnte man ẋ = −x 3 , x| t=0 = x 0 dadurch lösen, dass<br />

63<br />


wir ẏ = 0 mit der Anfangsedingung y 0 = h(x 0 ) lösen. Die Lösung der letzten Gleichung ist<br />

durch y(t, y 0 ) = y 0 gegeben. Eine Rücktransformation ergibt dann<br />

was offensichtlich falsch ist.<br />

x(t, x 0 ) = h −1 y(t, y 0 ) = h −1 (y 0 ) = x 0 ,<br />

Der Satz von Hartman-Grobman gilt auch im diskreten Fall, d.h. bei der zu periodischen Lösungen<br />

gehörenden Poincaré-Abbildung. Er lautet:<br />

Theorem 5.5 Sei x 0 ein Fixpunkt der Abbildung Π ∈ C 1 (U, R d ). Besitzt L = DΠ| x=x0 keine<br />

Eigenwerte auf dem Einheitskreis <strong>und</strong> ist L invertierbar, dann gibt es einen in einer Umgebung<br />

U von x 0 definierten Homöomorphismus h, welcher die Lösungskurven (die Orbits, die Trajektorien)<br />

des nichtlinearen Flußes Π n (·) in die des linearen Flußes L n· überführt, d.h. die Flüße<br />

sind konjugiert h ◦ Π(·) = DΠ ◦ h.<br />

Beweis: Es sei x 0 = 0. Dann ist Π(x) = Lx + f(x) mit f(x) = o(x). Da uns Π nur in der<br />

Nähe von x = 0 interessiert, können wir daher sup x∈R ‖Df(x)‖ ≤ µ 0 mit µ 0 = o(1) für x → 0<br />

voraussetzen.<br />

Die Linearisierung L zerfällt in einen stabilen Teil L s zu den Eigenwerten innerhalb des Einheitskreises<br />

<strong>und</strong> in einen instabilen Teil L u zu den Eigenwerten außerhalb des Einheitskreises.<br />

Wegen der Hyperbolizitätsvoraussetzung an L können wir die Norm in R d so wählen, dass<br />

‖L s ‖ ≤ a <strong>und</strong> ‖L −1<br />

u ‖ ≤ a, mit a < 1.<br />

Den Homöomorphismus h schreiben wir in der Form h(x) = x + g(x), bzw. h = I + g. Damit<br />

ergeben sich die Gleichungen<br />

g = L ◦ g ◦ (L + f) −1 + L ◦ (L + f) −1 − I<br />

g = L −1 ◦ g ◦ (L + f) + L −1 ◦ (L + f) − I<br />

Daraus konstruieren wir eine Abbildung T (g, f) = T s (g, f) + T u (g, f) durch<br />

T s (g, f) = L s ◦ g ◦ (L + f) −1 + L s ◦ (L + f) −1 − I s<br />

T u (g, f) = L −1<br />

u<br />

◦ g ◦ (L + f) + L−1 u ◦ (L + f) − I u<br />

Der Ausdruck (L + f) −1 existiert, da f ∈ C 1 b mit ‖Df‖ C 0 = sup x∈R ‖(Df)(x)‖ ≤ µ 0 mit µ 0<br />

hinreichend klein ist. Denn Lx+f(x) = y läßt sich über die Iteration x n+1 = L −1 y−L −1 f(x n )<br />

lösen. Die Matrix L −1 existiert nach Voraussetzung. Da die rechte Seite, für µ 0 hinreichend<br />

klein, eine Lipschitzkonstante kleiner als 1 hat, ist die Iteration eine Kontraktion <strong>und</strong> besitzt<br />

somit einen Fixpunkt x = x(y, f) = L −1 y + O(‖Df‖ C 0<br />

b<br />

). Es gibt daher ein k > 0, so dass<br />

‖L ◦ (L + f) −1 − I‖ C 0<br />

b<br />

≤ k‖Df‖ C 0<br />

b<br />

<strong>und</strong> ‖L −1 ◦ (L + f) − I‖ C 0<br />

b<br />

≤ k‖Df‖ C 0<br />

b<br />

.<br />

Die Funktion T (g, f) erfüllt daher<br />

‖T (g, f)‖ C 0<br />

b<br />

≤ a‖g‖ C 0<br />

b<br />

+ k‖Df‖ C 0<br />

b<br />

64


<strong>und</strong><br />

Damit ist T (·, f) : Cb 0 → Cb 0<br />

g = g(f).<br />

‖T (g 1 , f) − T (g 2 , f)‖ C 0<br />

b<br />

≤ a‖g 1 − g 2 ‖ C 0<br />

b<br />

.<br />

eine Kontraktion <strong>und</strong> es existiert ein eindeutiger Fixpunkt<br />

Um zu zeigen, dass h ein Homöomorphismus ist, wiederholen wir dieses Argument für ˜h<br />

aus Π ◦ ˜h(·) = ˜h ◦ DΠ·. Nach Konstruktion ergibt sich dann h ◦ ˜h = I, womit h ein ein<br />

Homöomorphismus ist.<br />

□<br />

5.2 Stabile, Instabile Mannigfaltigkeiten<br />

Wieder sei x 0 ∈ R d ein Fixpunkt der autonomen Differentialgleichung ẋ = f(x) mit f ∈<br />

C m (R d , R d ). Für das linearisierte System ẏ = Ay = ∂f | ∂x x=x 0<br />

y definierten wir mit dem stabilen,<br />

dem instabilen <strong>und</strong> dem zentralen Unterraum E s , E u <strong>und</strong> E c unter e At invariante Unterräume.<br />

Dieser über die verallgemeinerten Eigenräume definierten Räume bleiben im nichtlineren Fall<br />

als invariante Mannigfaltigkeiten erhalten. Die stabile <strong>und</strong> instabile Mannigfaltigkeit eines Fixpunktes<br />

sind für das globale Verhalten von Gewöhnlichen <strong>Differentialgleichungen</strong> sehr wichtig,<br />

da sie die verbindenden Orbits von Fixpunkten enthalten. Der Einfachheit halber betrachten wir<br />

zunächst nur <strong>Differentialgleichungen</strong> mit der Eigenschaft, dass A = Df| x=x0 keine Eigenwerte<br />

auf der imaginären Achse besitzt.<br />

Definition 5.6 Wir definieren die lokale stabile <strong>und</strong> instabile Mannigfaltigkeit W s,loc <strong>und</strong> W u,loc<br />

eines Fixpunktes x 0 durch<br />

<strong>und</strong><br />

W s,loc = {¯x ∈ U | Es gibt C, β > 0, so dass ‖x(t, ¯x)‖ ≤ Ce −βt für t ≥ 0}<br />

W u,loc = {¯x ∈ U | Es gibt C, β > 0, so dass ‖x(t, ¯x)‖ ≤ Ce −β|t| für t ≤ 0}<br />

wobei U ⊂ R d eine Umgebung von x 0 ist.<br />

Beispiel 5.7 Für lineare autonome <strong>Differentialgleichungen</strong> ẋ = Ax ist die lokale stabile Mannigfaltigkeit<br />

W s,loc durch den stabilen Unterraum E s gegeben <strong>und</strong> die lokale instabile Mannigfaltigkeit<br />

W u,loc durch den instabilen Unterraum E u gegeben.<br />

Der folgende Satz zeigt, dass für nichtlineare <strong>Systeme</strong> E s <strong>und</strong> W s,loc <strong>und</strong> entsprechend die<br />

instabilen Räume zueinander tangential sind.<br />

Theorem 5.8 Es existieren lokale stabile <strong>und</strong> instabile Mannigfaltigkeiten W s,loc <strong>und</strong> W u,loc mit<br />

der Dimension der entsprechenden stabilen <strong>und</strong> instabilen Unteräume E s <strong>und</strong> E u . Die Mannigfaltigkeiten<br />

sind tangential an die Unterräume <strong>und</strong> sind so oft differenzierbar wie f.<br />

Beweis: Der Beweis geht analog zum später folgenden Existenzsatz für Zentrumsmannigfaltigkeiten.<br />

Er folgt durch ein Fixpunktargument in einem zeitlich exponentiell gewichteten Raum.<br />

□<br />

65


Bemerkung 5.9 Entsprechend kann für diskrete dynamische <strong>Systeme</strong> x n+1 = Π(x n ) durch<br />

<strong>und</strong><br />

W s,loc = {¯x ∈ U | Es gibt C ≥ 1, β ∈ (0, 1), so dass ‖Π n (¯x)‖ ≤ Cβ n für n ≥ 0}<br />

W u,loc = {¯x ∈ U | Es gibt C ≥ 1, β ∈ (0, 1), so dass ‖Π n (¯x)‖ ≤ Cβ |n| für n ≤ 0}<br />

eine lokale stabile <strong>und</strong> instabile Mannigfaltigkeit definiert werden.<br />

Die oben definierten Mannigfaltigkeiten können (hier im kontinuierlichen Fall) durch<br />

W s = ⋃ ⋃<br />

x(t, W s,loc ) = {x(t, ¯x)}<br />

t≤0 t≤0,¯x∈W s,loc<br />

<strong>und</strong><br />

W u = ⋃ t≥0<br />

x(t, W u,loc ) =<br />

⋃<br />

t≥0,¯x∈W u,loc<br />

{x(t, ¯x)}<br />

global fortgesetzt werden. Wegen der lokalen Existenz <strong>und</strong> Eindeutigkeit von Lösungen können<br />

sich die stabilen Mannigfaltigkeiten zu verschiedenen Fixpunkten nicht schneiden. Entsprechendes<br />

gilt für die instabilen Mannigfaltigkeiten. Der Schnitt stabiler <strong>und</strong> instabiler Mannigfaltigkeiten<br />

ist möglich <strong>und</strong> kann die Ursache chaotischer Dynamik sein.<br />

Wir betrachten nun verschiedene Beispiele.<br />

Beispiel 5.10 Wir betrachten erneut das mathematische Pendel<br />

ẋ 1 = x 2 , ẋ 2 = −αx 2 − sin(x 1 ).<br />

Wir betrachten zunächst den Fall α = 0. Die eindimensionale instabile Mannigfaltigkeit von<br />

(−π, 0) schneidet die eindimensionale stabile Mannigfaltigkeit von (π, 0). Sie sind identisch.<br />

Für α ≠ 0 liegt kein Schnitt vor. Im allgemeinen schneiden sich zwei eindimensionale Mannigfaltigkeiten<br />

im R 2 nicht. Um zu einem Schnitt zu gelangen, benötigen wir einen freien Parameter,<br />

hier α.<br />

Beispiel 5.11 Wir betrachten die Differentialgleichung<br />

ẋ = x, ẏ = −y + x 2 ,<br />

welche den einzigen Fixpunkt (0, 0) besitzt. Für das linearisierte System<br />

erhalten wir die invarianten Unterräume<br />

ẋ = x, ẏ = −y<br />

E s = {(x, y) ∈ R 2 | x = 0} <strong>und</strong> E u = {(x, y) ∈ R 2 | y = 0}.<br />

66


Offensichtlich ist W s = E s . Für die Berechnung von W u gehen wir wie folgt vor. Mit dy = dy dt<br />

dx dt dx<br />

ergibt sich für die Lösungskurven y = y(x) die Differentialgleichung<br />

Die Lösungen sind durch<br />

dy<br />

dx = −y<br />

x + x<br />

y(x) = x2<br />

3 + c x<br />

gegeben. Die instabile Mannigfaltigkeit kann durch einen Graphen y = h(x) dargestellt werden.<br />

Nach obigen Satz muß dieser h(0) = h ′ (0) = 0 erfüllen. Damit ergibt sich c = 0 <strong>und</strong><br />

W u = {(x, y) ∈ R 2 | y = x 2 /3}.<br />

Beispiel 5.12 Wir betrachten die zweidimensionale Abbildung<br />

( ) ( ) ( )<br />

x 1 1 x<br />

Π =<br />

y 1 2 y<br />

auf dem Torus T 2 = R 2 /Z 2 . Der Punkt (0, 0) ist ein Fixpunkt. Das lineare System besitzt<br />

die Eigenvektoren (1, (1 ± √ 5)/2) T mit den dazugehörigen Eigenwerten (3 ± √ 5)/2. Es ist<br />

W s = E s = span{(1, (1 − √ 5)/2) T } <strong>und</strong> W u = E u = span{(1, (1 + √ 5)/2) T }. Diese<br />

Mannigfaltigkeiten können fortgesetzt werden. Da die Steigungen irrational sind, liegen die<br />

stabilen <strong>und</strong> instabilen Mannigfaltigkeiten dicht im Torus. Sie schneiden sich transversal. Hier<br />

liegt chaotisches Verhalten vor.<br />

Beispiel 5.13 Als letztes Beispiel betrachten wir die dreidimensionale Differentialgleichung<br />

ẋ = x − y − x(x 2 + y 2 )<br />

ẏ = x + y − y(x 2 + y 2 )<br />

ż = z<br />

Wie oben führen wir in der (x, y)- Ebene Polarkoordinaten x = r cos φ <strong>und</strong> y = r sin φ ein.<br />

Es ergibt sich ṙ = r − r 3 <strong>und</strong> ˙φ = 1. Zu der periodischen Lösung r = 1 wählen wir den<br />

Poincaré-Schnitt H = {(x, y, z) ∈ R 3 | x = 0}. Die dazugehörige zweidimensionale Poincaré-<br />

Abbildung Π : U → H besitzt den Fixpunkt (y, z) = (1, 0). Die zu diesem Fixpunkt gehörige<br />

instabile Mannigfaltigkeit ist durch W u = {(y, z) ∈ R 2 | y = 1} <strong>und</strong> die dazugehörige stabile<br />

Mannigfaltigkeit durch W s = {(y, z) ∈ R 2 | z = 0} gegeben.<br />

Sei x = x(t) eine Lösung, welche in der instabilen Mannigfaltigkeit eines Fixpunktes <strong>und</strong> in der<br />

stabilen Mannigfaltigkeit einer periodischen Lösung liegt, so heißt x = x(t) eine heterokline<br />

Verbindung des Fixpunktes <strong>und</strong> der periodischen Lösung.<br />

Wie wir bereits gesehen haben, können sich in diskreten <strong>Systeme</strong>n die stabile <strong>und</strong> die instabilen<br />

Mannigfaltigkeit eines Fixpunktes transversal schneiden. Als Konsequenz der Invarianz dieser<br />

Mannigfaltigkeiten müssen sich diese dann unendlich oft schneiden. Die Schnitte häufen sich<br />

beim Fixpunkt. Hier liegt ebenfalls chaotisches Verhalten vor. Siehe Kapitel 6.2.<br />

67


5.3 Die Zentrumsmannigfaltigkeit <strong>und</strong> Normalformen<br />

Die Zentrumsmannigfaltigkeit erlaubt es, die in Kapitel 4 vorgestellten Bifurkationen auch in<br />

höheren Raumdimensionen wiederzufinden. Wird ein Fixpunkt instabil, so findet in einer Umgebung<br />

des Fixpunktes die gesamte interessante Dynamik auf der exponentiell attraktiven Zentrumsmannigfaltigkeit<br />

statt. Sogenannte Normalformtransformation vereinfachen die Untersuchung<br />

der gef<strong>und</strong>enen reduzierten <strong>Systeme</strong> <strong>und</strong> erlauben eine Klassifizierung aller möglichen<br />

Bifurkationen. Es gilt<br />

Theorem 5.14 Sei f ∈ C r (R d , R d ) mit f(0) = 0. Wir zerteilen das Spektrum (die Menge der<br />

Eigenwerte) von A = Df| x=0 in einen stabilen, einen instabilen <strong>und</strong> einen zentralen Teil<br />

σ s = {λ ∈ σ | Reλ < 0},<br />

σ c = {λ ∈ σ | Reλ = 0},<br />

σ u = {λ ∈ σ | Reλ > 0}.<br />

Es seien E s , E u <strong>und</strong> E c die Unterräume zu σ s , σ u <strong>und</strong> σ c . Dann existieren r mal stetig differenzierbare<br />

Mannigfaltigkeiten W s <strong>und</strong> W u tangential an E s <strong>und</strong> E u <strong>und</strong> eine r − 1 mal stetig<br />

differenzierbare Mannigfaltigkeit W c tangential an E c . Die Mannigfaltigkeiten W s , W u <strong>und</strong><br />

W c sind alle invariant unter dem Fluß. Die stabile <strong>und</strong> instabile Mannigfaltigkeit sind eindeutig.<br />

Die zentrale Mannigfaltigkeit W c ist im allgemeinen nicht eindeutig. Ist f ∈ C ∞ , so ist<br />

W s , W u ∈ C ∞ . Die Zentrumsmannigfaltigkeit W c kann in C r für alle r < ∞ gewählt werden.<br />

Je größer r gewählt wird, umso kleiner wird W c .<br />

Bevor wir diesen Satz beweisen, wollen wir den Inhalt <strong>und</strong> seine Anwendung anhand von Beispielen<br />

erläutern.<br />

Beispiel 5.15 [Kel67] Betrachte<br />

ẋ = x 2 , ẏ = −y.<br />

Wir erhalten die Lösungen x(t) = x 0<br />

1−tx 0<br />

<strong>und</strong> y(t) = y 0 e −t . Elimination der Zeit t ergibt y(x) =<br />

(y 0 e −1/x 0<br />

)e 1/x . Für x < 0 kommt jede Lösung flach in den Ursprung, d.h. lim x→0,x 0 ist y = 0 die einzige Lösung, welche in den Ursprung konvergiert. Damit erhalten<br />

wir beliebig viele C ∞ - Zentrumsmannigfaltigkeiten durch aneinanderkleben der Stücke rechts<br />

<strong>und</strong> links, womit wir ein Beispiel für die Nichteindeutigkeit der Zentrumsmannigfaltigkeit gef<strong>und</strong>en<br />

haben. Die einzige analytische (d.h. konvergente Potenzreihe) Zentrumsmannigfaltigkeit<br />

ist die x- Achse.<br />

Beispiel 5.16 Wir betrachten<br />

ẋ = µx − x 3 , ẏ = −y<br />

mit µ in der Nähe von Null. Für µ < 0 ist (x, y) = (0, 0) stabil. Für µ = 0 ist W c = {y = 0}.<br />

Durch betrachten von<br />

ẋ = µx − x 3 , ẏ = −y, ˙µ = 0<br />

68


erhalten wir W c = {(µ, x, y) ∈ R 3 | y = 0}. Damit können Bifurkationsprobleme durch<br />

Einführen der Gleichung ˙µ = 0 durch den Zentrumsmannigfaltigkeitensatz behandelt werden.<br />

Da ˙µ = 0 erhalten bleibt, kann ˙µ = 0 anschließend wieder gestrichen werden. So kann das<br />

vorliegende zweidimensionale Bifurkationsproblem durch den Zentrumsmannigfaltigkeitensatz<br />

auf ein eindimensionales Problem in der attraktiven invarianten Zentrumsmannigfaltigkeit reduziert<br />

werden. Diese Reduktion war hier natürlich trivial.<br />

Beispiel 5.17 Wir betrachten<br />

ẋ = µx + x 3 − xy, ẏ = −y + 2x 2<br />

mit µ in der Nähe von Null. Wir ergänzen das System durch ˙µ = 0. Das linearisierte System ist<br />

durch ẋ = 0, ẏ = −y, ˙µ = 0 gegeben <strong>und</strong> so ist offensichtlich E c = {y = 0}. Wir machen<br />

daher den Ansatz<br />

y = h(x) = ax 2 + bµx + cµ 2 + O(|µ| 3 + |x| 3 )<br />

Es ergibt sich<br />

<strong>und</strong> da<br />

folgt durch Koeffizientenvergleich<br />

2axẋ + µẋ + . . . = −(ax 2 + bµx + cµ 2 + . . .) + 2x 2<br />

ẋ = µx + x 3 − ax 3 + . . .<br />

x 2 : 0 = −a + 2, xµ : 0 = −b, µ 2 : 0 = −c, . . .<br />

Allgemein ergibt sich, dass in h keine Potenzen von µ n ohne x auftauchen können. Damit ergibt<br />

sich näherungsweise auf der Zentrumsmannigfaltigkeit<br />

die Gleichung<br />

W c = {y = 2x 2 + O(|µ|x 2 + |x| 3 )}<br />

ẋ = µx + x 3 − x(2x 2 ) + O(µ 2 x 2 + x 4 ) = µx − x 3 + O(µ 2 x 2 + x 4 )<br />

d.h. der Fixpunkt (x, y) = (0, 0) ist für µ ≤ 0 stabil, da wie wir später zeigen werden, die<br />

Stabilität auf der Zentrumsmannigfaltigkeit die Stabilität impliziert. Bei µ = 0 findet eine superkritische<br />

Pitchforkbifurkation statt.<br />

Beispiel 5.18 Um zu demonstrieren, woher die Nichtglattheit der Zentrumsmannigfaltigkeit<br />

stammt, betrachten wir das System<br />

ẋ = −µx, ẏ = −y, ˙µ = 0<br />

mit 0 > −µ > 1. Die Lösungskurven erfüllen dy<br />

dx = µ y x <strong>und</strong> sind durch y(x) = C|x|1/µ gegeben.<br />

Ist r < 1/µ < r + 1 mit r ∈ N, so sind die Lösungskurven in C r , aber nicht in C r+1 . Jede<br />

solche Kurve ist eine Zentrumsmannigfaltigkeit, da sie tangential an y = 0 ist.<br />

69


Beweis des Zentrumsmannigfaltigkeitensatzes:<br />

Wir kommen nun zum Beweis des Zentrumsmannigfaltigkeitensatzes 5.14. Wir beschränken<br />

uns auf die Existenz <strong>und</strong> verweisen auf [Van89] für den Beweis der Differenzierbarkeitseigenschaften.<br />

Wir betrachten<br />

ẋ = Ax + ˜f(x) (12)<br />

mit x ∈ R d , ˜f ∈ C k (R d , R d ) für ein k ≥ 1 <strong>und</strong> ˜f(0) = 0, D ˜f(0) = 0. Zunächst betrachten wir<br />

das lineare System<br />

ẋ = Ax (13)<br />

mit der Lösung x(t) = e At x 0 . Das Spektrum σ(A) von A, d.h. die Gesamtheit der Eigenwerte<br />

zerfällt in einen stabilen, einen instabilen <strong>und</strong> einen zentralen Teil σ s , σ u <strong>und</strong> σ c . Es sei E s der<br />

zu σ s gehörende Unterraum von R d , entsprechend E c <strong>und</strong> E u , d.h.<br />

Entsprechend definieren wir Projektionen<br />

R d = E s ⊕ E c ⊕ E u .<br />

π s : R d → E s , π c : R d → E c , π u : R d → E u<br />

mit kern(π s ) = E c ⊕ E u , kern(π c ) = E s ⊕ E u <strong>und</strong> kern(π u ) = E s ⊕ E c . Wir definieren weiter<br />

π h = π s + π u <strong>und</strong> E h = E s ⊕ E u .<br />

Die wesentliche Idee beruht darin, die invarianten Mannigfaltigkeiten über die exponentiellen<br />

Wachstumsraten der Lösungen zu charakterisieren. Wir definieren<br />

Es gilt dann<br />

β + = min{Reλ | λ ∈ σ u } > 0<br />

β − = max{Reλ | λ ∈ σ s } < 0<br />

β = min{β + , −β − }.<br />

Lemma 5.19 Für jedes ɛ > 0 gibt es ein M(ɛ) > 0, so dass<br />

‖e At π c ‖ ≤ M(ɛ)e |ɛ|t , ∀ t ∈ R,<br />

‖e At π u ‖ ≤ M(ɛ)e (β +−ɛ)t , ∀ t ≤ 0,<br />

‖e At π s ‖ ≤ M(ɛ)e (β −+ɛ)t , ∀ t ≥ 0.<br />

Beweis: Der Beweis folgt unmittelbar aus der Darstellungsformel von e At .<br />

Als nächstes schneiden wir die Funktion ˜f außerhalb einer Umgebung um x = 0 ab. Dazu sei<br />

χ ∈ C ∞ (R d , R) mit den Eigenschaften (i) 0 ≤ χ(x) ≤ 1 für alle x ∈ R d , (ii) χ(x) = 1,<br />

wenn ‖x‖ ≤ 1 <strong>und</strong> (iii) χ(x) = 0, wenn ‖x‖ ≥ 2, gewählt. Dann definieren wir ˜f ρ (x) =<br />

˜f(x)χ(ρ −1 x). Da ˜f ρ (x) = ˜f(x) für x ∈ B ρ = {x ∈ R d | ‖x‖ ≤ ρ} sind die Flüße von<br />

ẋ = Ax + ˜f ρ (x) <strong>und</strong> von (12) für alle x ∈ B ρ gleich. Offensichtlich gilt (ohne Beweis)<br />

70<br />


Lemma 5.20 Es sei ˜f ∈ C k für ein k ≥ 1 <strong>und</strong> ˜f ρ wie oben definiert. Dann ist ˜f ρ ∈ C k <strong>und</strong> es<br />

gilt lim ρ→0 sup x∈R d ‖D ˜f ρ (x)‖ = 0.<br />

Da wir nur in der Dynamik in der Nähe von x = 0 interessiert sind, betrachten wir im weiteren<br />

ẋ = Ax + g(x) (14)<br />

mit g ∈ C k (R d , R d ) für ein k ≥ 1 <strong>und</strong> g(0) = 0, D˜g(0) = 0 <strong>und</strong> sup x∈R d ‖Dg(x)‖ hinreichend<br />

klein. Der Existenzsatz für die Zentrumsmannigfaltigkeit lautet.<br />

Theorem 5.21 Sei η ∈ (0, β). Dann gibt es ein δ 0 > 0 such dass für g mit sup x∈R d ‖Dg(x)‖ ≤<br />

δ 0 das folgende gilt.<br />

(i) Die Menge<br />

M c = {x 0 ∈ R d | sup e −η|t| ‖x(t, x 0 )‖ < ∞}<br />

t∈R<br />

ist invariant unter (14) <strong>und</strong> eine C 0 - Mannigfaltigkeit des R d . Genauer, es gibt ein ψ ∈ C 0 (E c , E h )<br />

so dass<br />

M c = {x c + ψ(x c ) | x x ∈ E c }.<br />

ii) Diese Mannigfaltigkeit ist eindeutig.<br />

Bemerkung 5.22 Dies ist kein Widerspruch zur Nichteindeutigkeit von oben, da die eindeutig<br />

ausgewählte Mannigfaltigeit von der Abschneidefunktion abhängig ist.<br />

Beweis: Die Invarianz von M c folgt unmittelbar aus der Definition, denn es ist x(τ, x 0 ) ∈ M c ,<br />

wenn x 0 ∈ M c , da<br />

sup<br />

t∈R<br />

e −η|t| ‖x(t, x(τ, x 0 ))‖ ≤ e η|τ| sup e −η|t+τ| ‖x(t + τ, x 0 ))‖ < ∞.<br />

t∈R<br />

Zum Existenznachweis verwenden wir die Variation der Konstantenformel<br />

x(t) = e A(t−t 0) x(t 0 ) +<br />

∫ t<br />

t 0<br />

e A(t−τ) g(x(τ))dτ.<br />

Wir wenden nun nacheinander die Projektionen π j für j = c, s, u auf diese Gleichung an.<br />

Für den zentralen Teil wählen wir t 0 = 0 <strong>und</strong> so<br />

π c x(t) = e At x c +<br />

∫ t<br />

0<br />

e A(t−τ) π c g(x(τ))dτ<br />

für x c ∈ E c . Für den stabilen Teil betrachten wir t 0 → −∞. Für Lösungen x ∈ M c ergibt sich<br />

π s x(t) =<br />

∫ t<br />

−∞<br />

e A(t−τ) π s g(x(τ))dτ.<br />

Für den instabilen Teil betrachten wir t 0 → ∞. Für Lösungen x ∈ M c ergibt sich<br />

π u x(t) = −<br />

∫ ∞<br />

t<br />

e A(t−τ) π u g(x(τ))dτ.<br />

71


Aus den so erhaltenen Bedingungen erhalten wir für x ∈ M c die Fixpunktbedingung<br />

x = Sx c + KG(x) (15)<br />

mit<br />

der Auswertungsabbildung<br />

<strong>und</strong> der linearen Abbildung<br />

(Sx c )(t) = e At x c ,<br />

G(x)(t) = g(x(t))<br />

(Ky)(t) =<br />

∫ t<br />

0<br />

e A(t−τ) π c y(τ))dτ +<br />

∫ t<br />

−∞<br />

Als geeigneter metrischer Raum erweist sich<br />

e A(t−τ) π s y(τ))dτ −<br />

∫ ∞<br />

Y η = {x ∈ C 0 (R, R d ) | ‖y‖ η = sup e −η|t| ‖y(t)‖ < ∞}.<br />

t∈R<br />

t<br />

e A(t−τ) π u y(τ))dτ.<br />

Lemma 5.23 S ist ein beschränkter linearer Operator von E c nach Y η für jedes η > 0.<br />

Beweis: Nach Lemma 5.19 gibt es ein M(ɛ) > 0, so dass<br />

‖e At x c ‖ ≤ M(ɛ)e ɛ|t| ‖x c ‖<br />

für x c ∈ E c <strong>und</strong> so<br />

Wir setzen<br />

‖Sx c ‖ Yη<br />

≤ M(ɛ)‖x c ‖.<br />

C n b (Rd , R d ) = {x ∈ C n (R d , R d ) | ‖u‖ C n<br />

b<br />

= sup<br />

x∈R d<br />

n∑<br />

j=0<br />

‖∂x j u(x)‖ < ∞}.<br />

□<br />

Lemma 5.24 Für g ∈ C 0 b (Rd , R d ) bildet G den Raum Y η in sich ab. Ist g ∈ C 1 b (Rd , R d ) dann<br />

gilt für jedes η > 0<br />

‖G(y 1 ) − G(y 2 )‖ Yη ≤ ‖Dg‖ C 0<br />

b<br />

‖y 1 − y 2 ‖ Yη<br />

für y 1 , y 2 ∈ Y η .<br />

Beweis: Die erste Aussage ist offensichtlich, da g beschränkt ist. Weiter ist nach dem Mittelwertsatz<br />

‖G(y 1 ) − G(y 2 )‖ Yη ≤ sup e −η|t| ‖g(y 1 (t)) − g(y 2 (t))‖<br />

t∈R<br />

≤<br />

sup e −η|t| ‖Dg‖ C 0<br />

b<br />

‖y 1 (t) − y 2 (t)‖ ≤ ‖Dg‖ C 0<br />

b<br />

‖y 1 − y 2 ‖ Yη<br />

t∈R<br />

für y 1 , y 2 ∈ Y η .<br />

□<br />

72


Lemma 5.25 Für jedes η ∈ (0, β) ist die Abbildung K ein beschränkter linearer Operator von<br />

Y η nach Y η , d.h. es gibt eine Funktion γ : (0, β) → R, so dass<br />

‖K‖ Yη→Y η<br />

≤ γ(η).<br />

Beweis: Zunächst schreiben wir die letzten beiden Terme in der Definition von K als ∫ ∞<br />

∞ B(t−<br />

τ)y(τ)dτ. Sei weiter η ∈ (0, β) <strong>und</strong> y ∈ Y η . Dann folgt<br />

∫ t<br />

e −η|t| ‖(Ky)(t)‖ ≤ ‖y‖ η sup e −η|t| [|<br />

t∈R<br />

≤<br />

≤<br />

‖y‖ η sup[|<br />

t∈R<br />

‖y‖ η [max(<br />

∫ t<br />

0<br />

∫ ∞<br />

0<br />

0<br />

‖e A(t−τ) π c ‖e η|τ| dτ| +<br />

‖e A(t−τ) π c ‖e −η|t−τ| dτ| +<br />

∫ ∞<br />

−∞<br />

∫ ∞<br />

−∞<br />

∫ 0<br />

‖e Aτ π c ‖e −ητ dτ, ‖e Aτ π c ‖e ητ dτ) +<br />

−∞<br />

≤ ‖y‖ η M(ɛ)[(η − ɛ) −1 + 2(β − η − ɛ) −1 ].<br />

Lemma 5.26 Sei η ∈ (0, β) <strong>und</strong> g ∈ C 1 b (Rd ), so dass<br />

κ = ‖K‖ η ‖Dg‖ C 0<br />

b<br />

< 1.<br />

Dann ist I − K ◦ G ein Homöomorphismus in Y η .<br />

Beweis: Dies folgt unmittelbar aus den obigen Lemmata.<br />

‖B(t − τ)‖e η|τ| dτ]<br />

‖B(t − τ)‖e η|t−τ| dτ]<br />

∫ ∞<br />

−∞<br />

‖B(τ)‖e η|τ| dτ]<br />

Wir definieren Ψ = (I − K ◦ G) −1 Dann läßt sich die Lösung der obigen Fixpunktgleichung<br />

(15) als x = Ψ(Sx c ) schreiben. Wir definieren nun<br />

ψ(x c ) = π h Ψ(Sx c )(0)<br />

für alle x c ∈ E c als Abbildung von E c nach E h . Aus der Stetigkeit von Ψ folgt die Stetigkeit<br />

von ψ. Da<br />

Ψ(Sx c ) = Sx c + KG(Ψ(Sx c )),<br />

folgt aus den Definitionen von S, G <strong>und</strong> K, dass<br />

Damit ergibt sich die Schranke<br />

ψ(x c ) =<br />

∫ ∞<br />

−∞<br />

B(−τ)g(Ψ(Sx c ))(τ)dτ.<br />

‖ψ(x c )‖ ≤ 2M(ɛ)‖g‖ C 0<br />

b<br />

(β − ɛ) −1 .<br />

Damit ist die Existenz einer stetigen Zentrumsmannigfaltigkeit bewiesen.<br />

Da für g ∈ C 1 b<br />

die Abbildung Ψ Lipschitz- stetig ist, folgt gleiches für ψ.<br />

73<br />

□<br />


Die Konstruktion von stabilen <strong>und</strong> instabilen Mannigfaltigkeiten läuft analog. Im Fall der stabilen<br />

Mannigfaltigkeit wird zum Beispiel die Abbildung<br />

mit<br />

z = Sx s + K s G(z)<br />

im Raum<br />

(Sx s )(t) = e At x s<br />

(K s z)(t) =<br />

∫ t<br />

G(z)(t) = g(z(t))<br />

Z + η<br />

0<br />

e A(t−τ) π s z(τ)dτ −<br />

∫ ∞<br />

t<br />

e A(t−τ) π cu z(τ)dτ<br />

= {z ∈ C0 (R + , R d ) | ‖z‖ η = sup e ηt ‖z(t)‖ < ∞}<br />

t≥0<br />

für x s ∈ E s betrachtet. Damit haben wir die Existenz der Mannigfaltigkeiten nachgewiesen.<br />

Für weitere Details verweisen wir auf [Van89].<br />

□<br />

Bemerkung 5.27 Erstaunlicherweise ist G keine differenzierbare Funktion von Y η nach sich.<br />

Sie ist k- mal stetig differenzierbar von Y η1 nach Y η2 , falls η 1 > kη 2 . Zur Motivation dieser<br />

Aussage betrachten wir g(x) = x k <strong>und</strong> x(t) = e η|t| .<br />

Zentrumsmannigfaltigkeiten M c sind zur Untersuchung von Instabilitäten von besonderem Interesse,<br />

da in einer Umgebung alle Lösungen mit einer exponentiellen Rate O(e −βt ), (mit β von<br />

oben) angezogen werden.<br />

Theorem 5.28 Wir betrachten das modifizierte System (14) mit σ u = ∅. Dann gibt es eine<br />

Konstante C, so dass für alle x 0 ∈ R d gilt: Es gibt ein t 0 ∈ R <strong>und</strong> x c ∈ M c , so dass<br />

Beweis: Siehe [Van89].<br />

‖x(t, x 0 ) − x(t − t 0 , x c )‖ ≤ Ce −βt .<br />

Der Zentrumsmannigfaltigkeitensatz erlaubt es nun die Dimension bei Bifurkationsproblemen<br />

ẋ = Ax + ˜f(x) auf die Dimension von E c zu reduzieren. Durch einen Potenzreihenansatz<br />

x h = ψ(x c ) läßt sich die Differentialgleichung<br />

x˙<br />

c = Ax c + π c ˜f(xc + ψ(x c )) (16)<br />

auf M c näherungsweise berechnen. Eine unmittelbare Folgerung des letzten Satzes ist<br />

Korollar 5.29 Es sei σ u = ∅. Ist x c = 0 im reduzierten System (16) stabil bzw. instabil, so gilt<br />

gleiches für x = 0 im vollen System.<br />

□<br />

74


Beispiel 5.30 Wir betrachten das diskrete dynamische System<br />

x n+1 = x n + x n y n , y n+1 = λy n − x 2 n<br />

mit 0 < λ < 1. Es ergibt sich E c = {y = 0}. Zur Berechnung der Zentrumsmannigfaltigkeit<br />

machen wir wie oben den Ansatz<br />

y = h(x) = ax 2 + bx 3 + O(x 4 ).<br />

Einsetzen ergibt mit y n+1 = ax 2 n+1 + bx3 n+1 + . . ., dass<br />

a(x + x(ax 2 + . . .)) 2 + b(x + x(ax 2 + . . .)) 3 + . . . = λ(ax 2 + bx 3 + . . .) − x 2<br />

<strong>und</strong> so durch Koeffizientenvergleich<br />

Wir erhalten für die Reduktionsfunktion<br />

<strong>und</strong> für die reduzierte Gleichung<br />

x n+1 = x n −<br />

a = − 1<br />

1 − λ , b = 0.<br />

x2<br />

y = h(x) = −<br />

1 − λ + O(x4 )<br />

x3 n<br />

1 − λ + O(x5 n ) = x n(1 − x2 n<br />

1 − λ + O(x4 n )).<br />

Damit ist x = 0 in der reduzierten Gleichung asymptotisch stabil, womit die asymptotische<br />

Stabilität des Ursprungs (x, y) = (0, 0) im vollen System folgt.<br />

Überqueren nun zwei konjugiert komplexe Eigenwerte die imaginäre Achse, so müssen für<br />

die quadratischen Terme 6 Koeffizienten <strong>und</strong> für die kubischen Terme gar 8 Koeffizienten berechnet<br />

werden. Die so erhaltene Näherungsgleichung zu analysieren, ist ohne weitergehende<br />

Überlegungen im Prinzip nicht durchführbar. Hier helfen nun sogenannte Normalformtransformationen,<br />

die es erlauben jedes so erhaltene System auf das bereits untersuchte System<br />

ṙ = ∓r ± r 3 + . . . , ˙φ = 1 + . . . .<br />

zurückzuführen. Wir wollen die Normalform- Methode anhand dieses Beispiels erklären <strong>und</strong><br />

dies zum Beweis des Satzes über Hopf- Bifurkationen verwenden.<br />

Theorem 5.31 Betrachte die gewöhnliche Differentialgleichung ẋ = A µ x + g(x) mit x(t)∈R d<br />

<strong>und</strong> ‖g(x)‖ = O(‖x‖ 2 ) für x → 0. Für µ = 0 besitze A µ die zwei Eigenwerte λ ± = ±iω<br />

mit ω ≠ 0. Die restlichen Eigenwerte sollen echt negativen Realteil besitzen. Weiter gelte<br />

dReλ ±<br />

dµ | µ=0 ≠ 0. Wenn γ r ≠ 0 in (18), dann bifurkiert für µ = 0 aus dem Fixpunkt x = 0<br />

eine einparametrige Familie periodischer Lösungen mit Periode nahe 2π/ω.<br />

75


Beweis: Zunächst wenden wir den Zentrumsmannigfaltigkeitensatz an <strong>und</strong> reduzieren das volle<br />

System auf ein Differentialgleichungssystem auf der zweidimensionalen Zentrumsmannigfaltigkeit<br />

M c tangential an den Unterraum E c zu den Eigenwerten λ ± . O.B.d.A. sei ω| µ=0 = 1<br />

<strong>und</strong><br />

dReλ ±<br />

dµ | µ=0 = µ,<br />

d.h.<br />

λ ± (µ) = i + µ + O(iµ + µ 2 ).<br />

Auf M c führen wir Koordinaten (y, z) ∈ R 2 ein, so dass sich das reduzierte System als<br />

ẏ = µy − z + a 101 µz<br />

+a 020 y 2 + a 011 yz + a 002 z 2 + a 030 y 3 + a 021 y 2 z + a 012 yz 2 + a 003 z 3<br />

+O(µ 2 (|x| + |y|) + |y| 4 + |z| 4 )<br />

ż = µz + y + b 110 µy<br />

+b 020 y 2 + b 011 yz + b 002 z 2 + b 030 y 3 + b 021 y 2 z + b 012 yz 2 + b 003 z 3<br />

+O(µ 2 (|x| + |y|) + |y| 4 + |z| 4 )<br />

mit reellwertigen Koeffizienten a ijk <strong>und</strong> b ijk schreiben läßt. Da dieses System in dieser Form<br />

nicht analysierbar ist, führen wir nacheinander Koordinatentransformationen durch, um ein einfacheres<br />

System zu erhalten.<br />

Einschub: Normalformtransformationen: Wir betrachten allgemein das autonome System<br />

für x(t) ∈ R d , einer d × d-Matrix A <strong>und</strong><br />

ẋ = Ax + f(x)<br />

f(x) = f 2 (x) + f 3 (x) + f 4 (x) + . . .<br />

mit f m (kx) = k m f m (x) für alle k ≥ 0, d.h. f m ist ein Vektor im R d mit homogenen Polynomen<br />

vom Grad m in den Variablen x 1 , . . . , x d als Einträge. Damit ist<br />

⎛ ⎞<br />

f m1<br />

f m = ⎜<br />

⎝ . ⎟<br />

⎠<br />

f md<br />

ein Element des Vektorraums<br />

⎧ ⎛<br />

⎪⎨<br />

V m =<br />

u =<br />

⎪⎩<br />

⎜<br />

⎝<br />

∑<br />

m 1 +...+m d =m α1 m 1 ...m d<br />

x m 1<br />

1 · . . . · x m d<br />

d<br />

.<br />

∑<br />

m 1 +...+m d =m αd m 1 ...m d<br />

x m 1<br />

1 · . . . · x m d<br />

d<br />

⎞<br />

⎟<br />

⎠ | αj m 1 ...m d<br />

∈ R<br />

der vektorwertigen homogenen Polynome vom Grad m in den Variablen x 1 , . . . , x d .<br />

76<br />

⎫<br />

⎪⎬<br />

⎪⎭


Wir suchen nun Koordinatentransformationen, welche es uns erlauben, möglichst viele Einträge<br />

der f m auf Null zu transformieren, um so ein möglichst einfaches System zu erhalten. Dazu<br />

machen wir den Ansatz<br />

x = y + h(y),<br />

wobei<br />

h(y) = h 2 (y) + h 3 (y) + h 4 (y) + . . .<br />

mit h m (ky) = k m h m (y) für alle k ≥ 0, d.h. h m ist ein Vektor im R d mit homogenen Polynomen<br />

vom Grad m in den Variablen y 1 , . . . , y d als Einträge. Wir erhalten<br />

<strong>und</strong> somit<br />

ẋ = ẏ + ∂h ẏ = A(y + h(y)) + f(y + h(y))<br />

∂y<br />

ẏ = (1 + ∂h<br />

∂y )−1 [A(y + h(y)) + f(y + h(y))]<br />

= Ay − ∂h 2<br />

∂y Ay + Ah 2(y) + f 2 (y) + O(‖y‖ 3 ).<br />

Damit muß, um alle quadratischen Terme f 2 wegtransformieren zu können, ein h 2 gef<strong>und</strong>en<br />

werden, so dass<br />

− ∂h 2<br />

∂y Ay + Ah 2(y) + f 2 (y) = 0.<br />

Interpretieren wir h 2 als ein Element des Vektorraumes V 2 , so ist<br />

(L A h 2 )(y) = − ∂h 2<br />

∂y Ay + Ah 2(y)<br />

eine lineare Abbildung des V 2 in sich. (L A wirkt linear auf die Koeffizienten α m m 1 ...m d<br />

.)<br />

Allgemein gilt es zum Wegtransformieren der Terme m-ter Ordnung das lineare Gleichungsystem<br />

− ∂h m<br />

∂y Ay + Ah m(y) + ˜f m (y) = 0<br />

zu lösen, wobei ˜f m die nichtlinearen Terme vom Grad m nach Anwenden der Transformationen<br />

h 2 bis h m−1 sind.<br />

Für unsere Zwecke reicht es sich auf den Fall von diagonalisierbarem A einzuschränken, d.h.<br />

A = diag(λ 1 , . . . , λ d ). Im Raum V m besitzt dann die lineare Abbildung L A die Eigenvektoren<br />

y m 1<br />

1 · . . . · y m d<br />

d<br />

e j, wobei e j der j-te Einheitsvektor des R d sei. Die dazugehörigen Eigenwerte<br />

sind durch µ = ∑ d<br />

k=1 m kλ k − λ j gegeben. Dazu betrachten wir die j-te Komponente<br />

d∑<br />

k=1<br />

∂h mj<br />

∂y k<br />

λ k y k − λ j h mj = µh mj<br />

der Eigenwertgleichung L A h m = µh m Einsetzen der obigen Eigenvektoren ergibt unmittelbar<br />

die Behauptung.<br />

77


Damit kann die Gleichung L A h m = g m in allen Eigenräumen gelöst werden, die nicht zu verschwindenden<br />

Eigenwerten µ = 0 gehören. Diese Terme der Nichtlinearität g m können somit<br />

wegtransformiert werden, wenn die Nichtresonanzbedingung<br />

d∑<br />

m k λ k − λ j ≠ 0 (17)<br />

erfüllt ist. Die zu µ = 0 gehörenden Eigenwerte λ j von A heißen resonant.<br />

k=1<br />

( )<br />

0 1<br />

Beispiel 5.32 Wir betrachten die Matrix A =<br />

. Diese besitzt die Eigenwerte λ 1 = i<br />

−1 0<br />

( ) ( )<br />

i −i<br />

<strong>und</strong> λ 2 = −i zu den Eigenvektoren <strong>und</strong> . Wir diagonalisieren die Matrix A<br />

1 1<br />

durch Einführen der Koordinaten a, b definiert durch<br />

( ) ( ) ( )<br />

x i −i<br />

= a + b .<br />

y 1 1<br />

Es gilt damit folgendes System zu betrachten<br />

ȧ = ia + α 20 a 2 + α 11 ab + α 02 b 2 + α 30 a 3 + α 21 a 2 b + α 12 ab 2 + α 03 b 3 + O(|a| 4 + |b| 4 )<br />

ḃ = −ib + β 20 a 2 + β 11 ab + β 02 b 2 + β 30 a 3 + β 21 a 2 b + β 12 ab 2 + β 03 b 3 + O(|a| 4 + |b| 4 ).<br />

Wir beginnen mit dem Wegtransformiern der quadratischen Terme.<br />

Zu α 20 a 2 : Die Nichtresonanzbedingung ist<br />

−2λ 1 − 0λ 2 + λ 1 = −2i + i ≠ 0<br />

Damit kann dieser Term wegtransformiert werden.<br />

Zu α 11 ab: Die Nichtresonanzbedingung ist<br />

−1λ 1 − 1λ 2 + λ 1 = −i − (−i) + i ≠ 0<br />

Damit kann dieser Term wegtransformiert werden.<br />

Zu α 02 b 2 : Die Nichtresonanzbedingung ist<br />

−0λ 1 − 2λ 2 + λ 1 = −2(−i) + i ≠ 0<br />

Damit kann auch dieser Term wegtransformiert werden. Analog können auch alle quadratischen<br />

Terme in der Gleichung für b wegtransformiert werden.<br />

Zu den kubischen Termen:<br />

78


Zu α 30 a 3 : Die Nichtresonanzbedingung ist<br />

−3λ 1 − 0λ 2 + λ 1 = −3i + i ≠ 0<br />

Damit kann dieser Term wegtransformiert werden.<br />

Zu α 21 a 2 b: Diesmal ist die Nichtresonanzbedingung nicht erfüllt, denn<br />

−2λ 1 − 1λ 2 + λ 1 = −2i − (−i) + i = 0<br />

Damit kann dieser Term nicht wegtransformiert werden.<br />

Zu α 12 ab 2 : Die Nichtresonanzbedingung ist<br />

−1λ 1 − 2λ 2 + λ 1 = −i − 2(−i) + i ≠ 0<br />

Damit kann dieser Term wegtransformiert werden.<br />

Zu α 03 b 3 : Die Nichtresonanzbedingung ist<br />

−0λ 1 − 3λ 2 + λ 1 = −3(−i) + i ≠ 0<br />

Damit kann dieser Term wegtransformiert werden.<br />

Das gleiche Abbildung ergibt sich für die kubischen Terme in der Gleichung für b. Dort können<br />

alle Terme bis auf ab 2 wegtransformiert werden.<br />

Damit ergibt sich nach den Normalformtransformationen h 2 <strong>und</strong> h 3 das System<br />

ȧ = ia + γ a a 2 b + O(|a| 4 + |b| 4 )<br />

ḃ = −ib + γ b ab 2 + O(|a| 4 + |b| 4 ),<br />

mit Koeffizienten γ a = γ b nach den Transformationen, wenn das ursprüngliche System reell<br />

war.<br />

Zurück zum eigentlichen Beweis: In unserem Fall muß das obige System noch durch die<br />

Terme mit µ <strong>und</strong> die Gleichung ˙µ = 0 ergänzt werden. Es ergibt sich dann<br />

ȧ = ia + µa + iα 110 µa + γ a a 2 b + O(|µ 2 |(|a| + |b|) + |a| 4 + |b| 4 )<br />

ḃ = −ib + µb − iα 110 µb + γ b ab 2 + O(|µ 2 |(|a| + |b|) + |a| 4 + |b| 4 ),<br />

In den ursprünglichen x, y-Koordinaten ergibt sich<br />

ẋ = y + µx + α 110 µy + γ r (x 2 + y 2 )x + γ i (x 2 + y 2 )y + O(|µ 2 |(|x| + |y|) + |x| 4 + |y| 4 )<br />

ẏ = −x + µy − α 110 µx + γ r (x 2 + y 2 )y − γ i (x 2 + y 2 )y + O(|µ 2 |(|x| + |y|) + |x| 4 + |y| 4 ).<br />

Führen wir Polarkoordinaten x = r cos φ <strong>und</strong> y = r sin φ ein, so erhalten wir<br />

ṙ = µr − γ r r 3 + O(µ 2 r + r 4 ) (18)<br />

˙φ = −1 − α 110 µ − γ i r 2 + O(µ 2 + r 3 )<br />

79


Damit haben wir ein System, welches wir für kleines µ untersuchen können. (Beachte r =<br />

O( √ µ) für die bifurkierenden Lösungen). Den endgültigen Existenznachweis der periodischen<br />

Lösungen wollen wir im folgenden nur kurz skizzieren.<br />

Für das abgeschnitte System<br />

finden wir die periodische Lösung r 2 = µ/γ r .<br />

ṙ = µr − γ r r 3<br />

˙φ = −1<br />

Zu dieser Lösung konstruieren wir die dazugehörige Poincaré-Abbildung Π. Die periodische<br />

Lösung entspricht einem Fixpunkt von Π. Nach dem Satz über implizite Funktionen bleibt<br />

dieser Fixpunkt bei Hinzunahme der vernachlässigten Terme erhalten. Damit haben wir für das<br />

volle System eine periodische Lösung gef<strong>und</strong>en.<br />

□<br />

80


6 Homokline <strong>und</strong> heterokline Lösungen<br />

Wir interessieren uns nun für das globale Verhalten der Lösungen von <strong>Differentialgleichungen</strong>.<br />

Hier spielen homokline <strong>und</strong> heterokline Lösungen eine wichtige Rolle. In der Nähe homokliner<br />

Lösungen kann chaotisches Verhalten gef<strong>und</strong>en werden. Eine Lösung x = x(t) einer<br />

autonomen Differentialgleichung heißt heterokline Verbindung der Fixpunkte x − <strong>und</strong> x + , falls<br />

lim t→±∞ x(t) = x ± . Sie heißt homoklin, falls x − = x + . Eine heterokline Verbindung x = x(t)<br />

muß daher im Schnitt der instabilen Mannigfaltigkeit W u (x − ) von x − <strong>und</strong> der stabilen Mannigfaltigkeit<br />

W s (x + ) von x + liegen.<br />

6.1 ω-Limesmengen, Ebene <strong>Systeme</strong>, Gradientensysteme<br />

Zunächst möchten wir formalisieren, was wir unter dem Langzeitverhalten der Lösungen gewöhnlicher<br />

<strong>Differentialgleichungen</strong> verstehen.<br />

Eine Lösung x = x(t) von ẋ = f(x) mit x(0) = x 0 ergibt im Phasenraum einen Orbit oder<br />

eine Trajektorie, welche wir mit γ(x 0 ) bezeichnen. Ist x(t 1 ) = x 1 , so gilt γ(x 0 ) = γ(x 1 ). Wir<br />

setzen<br />

γ + (x 0 ) = {x ∈ R d | ∃t ≥ 0 : x = x(t, x 0 )} <strong>und</strong> γ − (x 0 ) = {x ∈ R d | ∃t ≤ 0 : x = x(t, x 0 )}.<br />

Damit ist γ(x 0 ) = γ + (x 0 ) ∪ γ − (x 0 ).<br />

Definition 6.1 Ein Punkt p ∈ R d heißt positiver Limespunkt von γ(x 0 ), wenn es eine Folge<br />

(t n ) n∈N mit t n ≤ t n+1 <strong>und</strong> t n → ∞ gibt, so dass lim tn→∞ x(t n ) = p gilt. Die Menge aller<br />

positiven Limespunkte eines Orbits γ wird als ω-Limesmenge bezeichnet. Die Menge der<br />

entsprechend definierten negativen Limespunkte wird als α-Limesmenge bezeichnet.<br />

Beispiel 6.2 Betrachte<br />

ẋ 1 = x 2 , ẋ 2 = −x 1 .<br />

Ist p ∈ γ(x 0 ), dann ist p auch positiver <strong>und</strong> negativer Limespunkt. Setze t n = t 0 + 2πn, wenn<br />

x(t 0 ) = p. Dann gilt lim tn→∞ x(t n ) = lim tn→∞ p = p<br />

Theorem 6.3 Die Mengen α(γ) <strong>und</strong> ω(γ) sind abgeschlossen <strong>und</strong> invariant. Ist γ + beschränkt,<br />

dann ist die ω-Limesmege kompakt, zusammenhängend <strong>und</strong> nicht leer.<br />

Beweis: a) ω(γ) als Menge der Limespunkte ist abgeschlossen.<br />

b) Zur Invarianz: Sei p ∈ ω(γ). Dann gibt es eine Folge t n → ∞, so dass lim tn→∞ x(t n ) = p.<br />

Zu zeigen ist nun: x(t, p) ∈ ω(γ). Da x(t + t n , x 0 ) = x(t, x(t n , x 0 )) folgt im Limes n → ∞,<br />

dass<br />

x(t + t n , x 0 ) → x(t, p),<br />

womit die Behauptung γ(p) ⊂ ω(γ) folgt.<br />

c) Mit γ + ist offensichtlich auch ω(γ) beschränkt. Da nach a) ω(γ) abgeschlossen ist, folgt die<br />

81


Kompaktheit von ω(γ).<br />

d) Besteht γ + aus mehr als einem Punkt, d.h. ist γ + kein Fixpunkt, so enthält γ + unendlich viele<br />

Punkte. Damit existiert mindestens ein Häufungspunkt p der beschränkten Menge γ + . Besteht<br />

γ + nur aus einem Fixpunkt, so ist γ + = ω(γ) ebenfalls nicht leer.<br />

e) Wir nehmen an ω(γ) sei nicht zusammenhängend, d.h. ω(γ) = A 1 ∪ A 2 mit A 1 ∩ A 2 = ∅.<br />

Da γ + beschränkt ist, gibt es ein R > 0, so dass γ + ⊂ B R (0) = {x ∈ R d | ‖x‖ ≤ R}.<br />

Der Abstand von A 1 <strong>und</strong> A 2 sei δ > 0. Wir setzen<br />

A 3 = {x ∈ B R (0) | δ/4 ≤ dist(x, ω(γ))}.<br />

Offensichtlich muß die Lösung die Menge A 3 unendlich oft durchqueren, womit ein Limespunkt<br />

in A 3 liegen muß.<br />

□<br />

Beispiel 6.4 Wir betrachten in Polarkoordinaten<br />

ṙ = r(1 − r),<br />

˙φ = sin 2 (φ/2).<br />

Dieses System besitzt die Fixpunkte (r, φ) = (0, 0) <strong>und</strong> (r, φ) = (1, 0), welche beide instabil<br />

sind. Die ω-Limesmenge zum Fixpunkt (r, φ) = (0, 0) ist durch diesen Fixpunkt gegeben. Das<br />

Phasenbild zeigt, dass die ω-Limesmenge zu jeder anderen Lösung durch {(r, φ) | (r, φ) =<br />

(1, 0)} gegeben ist, obwohl dieser Fixpunkt instabil ist.<br />

Im restlichen Kapitel wollen wir die ω-Limesmengen von ebenen <strong>Systeme</strong>n <strong>und</strong> von Gradientensystemen<br />

charakterisieren.<br />

Ebene <strong>Systeme</strong>:<br />

Wir betrachten autonome <strong>Differentialgleichungen</strong> ẋ = f(x) mit x(t) ∈ R 2 . Was diese <strong>Systeme</strong><br />

von <strong>Systeme</strong>n in höheren Raumdimensionen unterscheidet ist der Jordansche Kurvensatz.<br />

Eine geschlossene, sich nicht selber schneidende differenzierbare Kurve Γ zerteilt die Ebene,<br />

d.h. den R 2 in zwei Teile, einen Teil innerhalb <strong>und</strong> einen Teil außerhalb der Kurve.<br />

Als Konsequenz müssen Poincaré-Abbildungen stets monoton sein. Denn: Ein Kurve l heißt<br />

transversal an die Orbits, wenn l keine kritischen Punkte (Fixpunkte) enthält <strong>und</strong> nicht tangential<br />

an einen Orbit ist. Zu einer Transversale l können wir wie oben eine Poincaré-Abbildung Π<br />

definieren. Es gilt dann<br />

Lemma 6.5 Die Folge (Π n (x)) n der Iterierten der Poincaré-Abbildung ist für x ∈ l monoton.<br />

Beweis: Nach Voraussetzung zeigt das Vektorfeld f stets auf eine Seite von l. Damit müssen<br />

die Lösungen l stets von der gleichen Seite durchstoßen. Sei nun x ∈ l gegeben <strong>und</strong> Π(x) ∈ l<br />

existent. Siehe Abbildung 24.<br />

Dann kann Π 2 (x), falls existent, wegen des Jordanschen Kurvensatzes <strong>und</strong> des lokalen Existenz<strong>und</strong><br />

Eindeutigkeitssatzes die Folge x, Π(x) nur monoton in l fortsetzen.<br />

□<br />

Als unmittelbare Folge erhalten wir:<br />

82


Abbildung 24: Schnitt der Lösung mit der Transversalen.<br />

Lemma 6.6 Die ω-Limesmenge eines Orbits γ(p) kann das Innere einer Transversale nur in<br />

einem Punkt schneiden.<br />

Mittels dieser Vorüberlegungen beweisen wir nun den Satz von Poincaré-Bendixson.<br />

Theorem 6.7 Betrachte ẋ = f(x) mit f ∈ C 1 (R 2 , R 2 ) <strong>und</strong> es sei γ + ein beschränkter positiver<br />

Orbit, wobei ω(γ) keine Fixpunkte enthalten soll. Dann ist ω(γ) ein periodischer Orbit.<br />

Bemerkung 6.8 Ist ω(γ) ≠ γ, so heißt der periodische Orbit Grenzzykel.<br />

Beweis: Sei x 0 ∈ ω(γ). Da ω(γ) keine Fixpunkte enthält, gibt es eine Transversale l durch<br />

diesen Punkt. Schneidet γ + die Transversale l nur einmal, so muß γ = ω(γ) <strong>und</strong> damit ein<br />

periodischer Orbit sein.<br />

Schneidet γ + die Transversale l mehr als einmal, so gibt es unendlich viele Schnitte <strong>und</strong> γ ∩<br />

ω(γ) = ∅. Da ω(γ) keine Fixpunkte enthält <strong>und</strong> x 0 ∈ ω(γ) beliebig war, muß ω(γ) aus einem<br />

periodischen Orbit bestehen.<br />

□<br />

Beispiel 6.9 Siehe Abbildung 25.<br />

Bemerkung 6.10 Wie wir bereits gesehen haben, ist der Satz von Poincaré-Bendixson auf<br />

dem Torus falsch, da es dort quasiperiodische Orbits geben kann, die den ganzen Torus als<br />

ω-Limesmenge besitzen.<br />

Gradientensysteme:<br />

Im folgenden betrachten wir autonome Gradientensysteme ẋ = −∇V (x) mit Potentialfunktion<br />

V ∈ C 2 (R d , R) <strong>und</strong> x(t) ∈ R d . Jede Extremstelle von V ist ein Fixpunkt der Differentialgleichung.<br />

Da V entlang von Lösungen abnimmt, können Gradientensysteme keine periodischen<br />

Lösungen <strong>und</strong> keine geschlossenen heteroklinen Verbindungen besitzen. Da ∇V senkrecht auf<br />

den Tangentialebenen der Äquipotentialflächen {x ∈ R d | V (x) = h} steht, werden diese durch<br />

die Lösungen immer senkrecht durchstoßen.<br />

Ein typische Situation ist wie folgt: Es gilt V (x) → ∞ für ‖x‖ → ∞ <strong>und</strong> alle Extremstellen<br />

83


Abbildung 25: Verschiedene ω-Limesmengen.<br />

von V liegen innerhalb B R (0) = {x ∈ R d |‖x‖ ≤ R}. Damit gibt es für jede Anfangsbedingung<br />

x 0 ∈ R d eine Zeit T ≥ 0, so dass x(t, x 0 ) ∈ B R (0) für alle t ≥ T . Die Kugel B R (0) heißt<br />

absorbierend. Besitzt V nur endlich viele Extremstellen, so gilt offensichtlich:<br />

Lemma 6.11 Unter diesen Voraussetzungen besteht die ω-Limesmenge eines jeden Orbits γ<br />

aus genau einem Fixpunkt.<br />

Bemerkung 6.12 Bei Potentialen V mit unendlich vielen Fixpunkten, kann die ω-Limesmenge<br />

aus unendlich vielen Fixpunkten bestehen.<br />

Bemerkung 6.13 Gradientensysteme, bei denen alle Fixpunkte hyperbolisch (d.h. keine Eigenwerte<br />

auf der imaginären Achse besitzen (dies impliziert die Isoliertheit der Fixpunkte))<br />

<strong>und</strong> alle Schnitte von stabilen <strong>und</strong> instabilen Mannigfaltigkeiten transversal sind, (d.h. die Tangentialebenen<br />

spannen ganz R d auf) sind strukturell stabil (d.h. diese Struktur geht bei kleinen<br />

Störungen nicht verloren). Siehe [Pal82].<br />

6.2 Melnikov-Chaos<br />

Wir betrachten hier zweidimensionale autonome <strong>Differentialgleichungen</strong> mit einer homoklinen<br />

Verbindung. Werden solche <strong>Systeme</strong> zeitlich periodisch gestört, so kann chaotisches Verhalten<br />

auftreten. Typische Beispiele sind:<br />

ẋ 1 = x 2 , ẋ 2 = x 1 − x 3 1 + ɛ(γ cos ωt − δx 2)<br />

oder<br />

ẋ 1 = x 2 , ẋ 2 = − sin x 1 + ɛ(γ cos t − δx 2 )<br />

84


mit 0 ≤ ɛ ≪ 1 ein kleiner Parameter. Im zweiten System identifizieren wir die Fixpunkte<br />

(−π, 0) <strong>und</strong> (π, 0) durch betrachten von S 1 × R anstelle von R 2 als Phasenraum. Die heteroklinen<br />

Verbindungen werden dadurch zu homoklinen Lösungen.<br />

Die zeitlich periodische Störung dieser <strong>Systeme</strong> untersuchen wir dadurch, dass wir die Zeit<br />

2π-Abbildung<br />

Π ɛ : x 0 ↦→ x ɛ (2π, x 0 ) = x ɛ (2π, 0, x 0 )<br />

betrachten. Für t = 2πn + s mit s ∈ (0, 2π) gilt<br />

x ɛ (t, x 0 ) = x ɛ (s, x ɛ (2π, x ɛ (2π, (. . . (x ɛ (2π, x 0 ) . . .))))))<br />

= x ɛ (s, ·) ◦ Π n ɛ (x 0).<br />

Damit reicht es im folgenden zur Untersuchung der Dynamik, Iterationen der Abbildung Π ɛ zu<br />

betrachten. Die Abbildung x ɛ (s, ·) mit s ∈ [0, 2π) stellt eine Koordinatentransformation dar.<br />

Allgemein betrachten wir<br />

)<br />

(<br />

u<br />

v<br />

ẋ = f(x) + ɛg(x, t), x =<br />

mit g(x, t) = g(x, t + 2π) <strong>und</strong> x(t) ∈ R 2 . Von<br />

( )<br />

f1 (x)<br />

f =<br />

f 2 (x)<br />

<strong>und</strong> g =<br />

(<br />

g1 (x, t)<br />

)<br />

g 2 (x, t)<br />

wollen wir voraussetzen, dass diese mindestens in C 2 sind.<br />

Weiter wollen wir voraussetzen, dass das ungestörte System einen homoklinen Orbit Γ : t ↦→<br />

q 0 (t) an einen hyperbolischen Sattelpunkt p 0 besitzt. Das gleiche ist damit für die Iteration der<br />

Poincaré-Abbildungen x n+1 = Π 0 (x n ) für ɛ = 0 wahr, d.h. am Fixpunkt Π 0 (p 0 ) = p 0 hängt die<br />

homokline Lösung Γ.<br />

Wir wollen nun untersuchen, wie das Bild für ɛ ≠ 0 aussieht.<br />

Der Fixpunkt p 0 kann mittels des Satzes über implizite Funktionen auch für ɛ > 0 fortgesetzt<br />

werden. Es gilt<br />

Lemma 6.14 Für ɛ > 0 besitzt die Iteration x n+1 = Π ɛ (x n ) einen eindeutigen Fixpunkt p ɛ mit<br />

p ɛ = p 0 + O(ɛ).<br />

Beweis: Wir suchen Nullstellen der Abbildung G : R 2 × R + → R 2 definiert durch<br />

G(x, ɛ) = Π ɛ (x) − x.<br />

Es ist i) G(p 0 , 0) = 0. ii) Die Linearisierung D x G(p 0 , 0) von G an (p 0 , 0) ist invertierbar, denn:<br />

zu ii) Es ist D x G(p 0 , 0) = D x Π 0 (p 0 ) − I <strong>und</strong> D x Π 0 (p 0 ) = e A2π , wobei A = D x f| x=p0<br />

nach<br />

85


Voraussetzung keine Eigenwerte λ j (0) auf der imaginären Achse hat. Damit sind die Eigenwerte<br />

von D x G(p 0 , 0) durch e 2πλ j(0) − 1 ≠ 0 gegeben. Als Konsequenz ist damit D x G(p 0 , 0)<br />

invertierbar.<br />

Wegen i) <strong>und</strong> ii) kann der Satz über implizite Funktionen angewandt werden <strong>und</strong> G(x, ɛ) = 0<br />

in der Nähe von (p 0 , 0) nach x = p ɛ aufgelöst werden, womit die Behauptung folgt. □<br />

Die Eigenwerte µ j (ɛ) der Linearisierung D x Π ɛ | x=pɛ erfüllen µ j (ɛ) = e 2πλj(0) + O(ɛ). Damit<br />

ist p ɛ ein hyperbolischer Sattelpunkt der Iteration x n+1 = Π ɛ (x n ). Zu diesem Fixpunkt x = p ɛ<br />

existiert folglich eine stabile <strong>und</strong> eine instabile Mannigfaltigkeit W s,ɛ (p ɛ ) bzw. W u,ɛ (p ɛ ). Diese<br />

liegen für kleines ɛ > 0 <strong>und</strong> für x → ∞ bzw. für x → −∞ in der Nähe der Mannigfaltigkeiten<br />

für ɛ = 0. Für ɛ > 0 besteht die Möglichkeit, dass sich diese Mannigfaltigkeiten transversal<br />

schneiden. Dieser Schnittpunkt sei q = q(ɛ). Siehe Abbildung 26.<br />

Da die stabile <strong>und</strong> instabile Mannigfaltigkeit invariant unter Π ɛ sind, muß jede Vorwärts <strong>und</strong><br />

p<br />

ε<br />

p<br />

0<br />

q<br />

ε<br />

Abbildung 26: Transversaler homokliner Punkt q.<br />

Rückwärtsiterationen von q = q(ɛ) wieder in diesen Mannigfaltigkeiten liegen, d.h.<br />

Π j ɛ(q) ∈ W s,ɛ (p ɛ ) <strong>und</strong> Π j ɛ(q) ∈ W u,ɛ (p ɛ )<br />

für j ∈ Z. Damit schneiden sich diese Mannigfaltigkeiten unendlich oft <strong>und</strong> es ergibt sich<br />

Abbildung 27.<br />

In dieser Situation liegt chaotisches Verhalten vor. Dies definieren wir wie in Abschnitt 4.3<br />

mittels Shiftdynamik. Der Nachweis chaotischen Verhaltens in gewöhnlichen <strong>Differentialgleichungen</strong><br />

läuft meist über den Nachweis einer Smaleschen Hufeisenabbildung<br />

Einschub: Smale’s Horseshoe<br />

Dieses zweidimensionale <strong>Dynamische</strong> System ist entsprechend der folgenden geometrischen<br />

Konstruktion definiert.<br />

Wir beginnen mit dem Einheitsquadrat S = [0, 1] × [0, 1] in der Ebene <strong>und</strong> definieren eine Abbildung<br />

f : S → R 2 , so dass f(S)∩S aus zwei Komponenten besteht. Die genaue Konstruktion<br />

findet sich in Abbildung 28. Die Abbildung f ist eine Streckung in vertikaler Richtung mit Faktor<br />

µ <strong>und</strong> eine Kontraktion in horizontaler Richtung mit Faktor λ mit anschließender Faltung.<br />

86


q ε<br />

p<br />

ε<br />

Abbildung 27: Unendlich viele Schnitte der invarianten Mannigfaltigkeiten.<br />

V V<br />

0 1<br />

H 1<br />

H 0<br />

Abbildung 28: Smalesche Hufeisenabbildung.<br />

Die Menge S wird durch f in zwei vertikale Streifen V 0 <strong>und</strong> V 1 abgebildet.<br />

Das inverse Bild dieser Abbildung bildet S in zwei horizontale Streifen H 0 <strong>und</strong> H 1 ab. Auf H j ,<br />

j ∈ {0, 1} besitzt die Abbildung f die Linearisierung<br />

( )<br />

±λ 0<br />

, (+ auf H 0 , − auf H 1 )<br />

0 ±µ<br />

mit λ ∈ (0, 1/2) <strong>und</strong> µ > 2.<br />

Unter der Iteration f verlassen die meisten Punkte die Menge S. Die Punkte, welche unter allen<br />

Iterationen von f in S in S bleiben, definieren eine Menge<br />

Λ = {x | f i (x) ∈ S, −∞ < i < ∞}<br />

Die Menge Λ weist eine komplizierte topologische Struktur auf. Jedes horizontale Band H i<br />

wird durch f in das vertikale Band V i = f(H i ) abgebildet.<br />

Wir betrachten den Schnitt V i ∩ H j . Die so erhaltenen Mengen kommen von dünneren Streifen<br />

87


H ij . Als Bild der zweifachen Iteration ergeben sich nun vertikale Streifen V ij = f 2 (H ij ). Siehe<br />

Abbildung 29.<br />

V V V V<br />

00 10<br />

11 01<br />

H<br />

10<br />

H<br />

11<br />

f<br />

f<br />

H<br />

01<br />

H<br />

00<br />

Abbildung 29: Iteration der Hufeisenabbildung.<br />

Setzen wir diese Konstruktion fort <strong>und</strong> schneiden alle so erhaltenen vertikalen <strong>und</strong> horizontalen<br />

Streifen, so ergibt sich eine abgeschlossene, nicht leere, nirgends zummenhängende Menge Λ.<br />

Da jeder Punkt in Λ ein Häufungspunkt aus Punkten aus Λ ist, handelt es sich bei Λ um eine<br />

Cantormenge.<br />

Bemerkung 6.15 Diese Konstruktion ist robust unter Störungen, die in C 1 klein sind.<br />

Jedem Punkt x ∈ Λ kann damit in eindeutiger Weise eine unendliche Folge a : Z → R zugewiesen<br />

werden, nämlich φ(x) = {a i } ∞ i=−∞ mit f i (x) ∈ H ai .<br />

Es ist φ(f(x)) = {b i } ∞ i=−∞ mit f i+1 (x) ∈ H bi . Damit ist f i (x) ∈ H bi−1 = H ai <strong>und</strong> so b i = a i+1 ,<br />

womit also φ ◦ f = σ ◦ φ gilt. Damit kann die Shiftabbildung in der Smaleschen Hufeisenabbildung<br />

gef<strong>und</strong>en werden.<br />

Es bleibt die Stetigkeit von φ : Λ → M zu zeigen. Sei x ∈ Λ gegeben. Dann bleibt zu zeigen,<br />

dass es für alle ɛ > 0 ein δ > 0, so dass d(φ(x), φ(y)) < ɛ aus ‖x−y‖ < δ folgt. Zu gegebenem<br />

ɛ > 0 gibt es ein j 0 = j 0 (ɛ), dass d(a, b) ≤ ɛ bedeutet, dass a j = b j für |j| ≤ j 0 <strong>und</strong> beliebig<br />

für |j| > j 0 . Die Forderung d(φ(x), φ(y)) < ɛ legt damit eindeutig zwei endliche Folgen<br />

a + = {a i } j 0<br />

j=0 <strong>und</strong> a − = {a i } −1<br />

j=−j 0 −1 fest. Zu dieser Folge gehören eindeutig Streifen V a − <strong>und</strong><br />

H a +. Wählen wir δ > 0 so klein, dass y ∈ V a + ∩ H a − aus ‖y − x‖ ≤ δ folgt, sind wir fertig. Da<br />

die Stetigkeit von φ −1 analog folgt, gilt damit<br />

Lemma 6.16 Es gibt eine bijektive Abbildung φ zwischen Λ <strong>und</strong> M, so dass die Folge b =<br />

φ(f(x)) aus a = φ(x) durch einen Shift der Indizes, b i = a i+1 erhalten wird. Die Abbildung φ<br />

ist Homöomorphismus zwischen den metrischen Räumen (M, d) <strong>und</strong> (Λ, ‖ · ‖).<br />

Konsequenz: Die Hufeisenabbildung f besitzt eine invariante Cantor Menge Λ, so dass<br />

88


i) Λ enthält eine abzählbare Menge periodischer Lösungen jeder Periode.<br />

ii) Λ enthält einen dichten Orbit.<br />

iii) Λ enthält eine überabzählbare Menge nichtperiodischer, beschränkter Lösungen.<br />

Wir zeigen nun wie bei der Existenz eines transversalen Schnittes der stabilen <strong>und</strong> instabilen<br />

Mannigfaltigkeit eine Hufeisenabbildung gef<strong>und</strong>en werden kann <strong>und</strong> so chaotisches Verhalten<br />

folgt.<br />

Theorem 6.17 (Das Smale-Birkhoff homokline Orbit Theorem) Sei f : R d → R d ein Diffeomorphismus,<br />

so dass p ein hyperbolischer Fixpunkt ist <strong>und</strong> ein q ≠ p ein weiterer Punkt in<br />

dem sich die stabile Mannigfaltigkeit W s (p) <strong>und</strong> die instabile Mannigfaltigkeit W u (p) transversal<br />

schneiden. Dann besitzt f eine (hyperbolische) Menge Λ auf der eine Iterierte von f<br />

homöomorph zur Shiftabbildung ist.<br />

Bemerkung 6.18 Eine unter f invariante Menge Λ besitzt eine hyperbolische Struktur, wenn<br />

es eine stetige invariante Zerlegung der Tangentialräume T Λ R d = EΛ u ⊕ Es Λ mit der folgenden<br />

Eigenschaft gibt: Es existieren Konstanten C > 0 <strong>und</strong> λ ∈ (0, 1) mit<br />

i) |Df −n (x)v| ≤ Cλ n |v|, wenn v ∈ E u x.<br />

i) |Df n (x)v| ≤ Cλ n |v|, wenn v ∈ E s x.<br />

Beweisskizze im R 2 : Die Idee beruht darauf, für eine Iterierte von f ein Bild zu finden, welches<br />

dem obigen Bild der Hufeisenabbildung entspricht. Dazu sei o.B.d.A. der Sattelpunkt p im<br />

Ursprung.<br />

Nach dem Satz von Hartman-Grobman besitzt der Sattelpunkt (x, y) = (0, 0) eine Umgebung,<br />

in der nach der Koordinatentransformation die Dynamik durch<br />

x n+1 = λx n , y n+1 = µy n<br />

mit |µ| > 1 > |λ| gegeben ist. Da wir an <strong>Systeme</strong>n interessiert sind, die von periodischen<br />

Störungen gewöhnlicher <strong>Differentialgleichungen</strong> kommen, setzen wir voraus, dass µ, λ positiv<br />

sind.<br />

Wir betrachten dann die Menge<br />

S = {(x, y) ∈ R 2 | 0 ≤ x ≤ δ, |y| ≤ δ}<br />

für δ > 0 hinreichend klein. Die k-te Iterierte für k hinreichend groß ist in Abbildung 30 skizziert.<br />

Damit haben wir die Smalesche Hufeisenabbildung bei Vorliegen eines homoklinen transversalen<br />

Punktes gef<strong>und</strong>en.<br />

□<br />

Es bleibt zu zeigen, dass sich die stabile <strong>und</strong> instabile Mannigfaltigkeit bei den von uns betrachteten<br />

<strong>Differentialgleichungen</strong> tatsächlich transversal schneiden. Der Einfachheit halber, wollen<br />

wir annehmen, dass die ungestörte Gleichung ein Hamiltonsches System ist, d.h. es gibt eine<br />

89


k<br />

f (S)<br />

W<br />

u<br />

p<br />

ε<br />

W<br />

s<br />

q<br />

ε<br />

S<br />

Abbildung 30: Smalesche Hufeisenabbildung bei Vorliegen eines homoklinen transversalen Punktes.<br />

Funktion H : R 2 → R, so dass f 1 = ∂H<br />

∂v<br />

<strong>und</strong> f 2 = − ∂H<br />

∂u .<br />

Wie wir bereits gesehen haben, besitzt die Poincaré-Abbildung Π ɛ des gestörten Systems einen<br />

hyperbolischen Sattelpunkt p ɛ = p 0 + O(ɛ), welcher in im erweiterten Phasenraum R 2 × S 1<br />

einer periodischen Lösung γ ɛ (t) = p 0 + O(ɛ) entspricht.<br />

Lemma 6.19 Die lokalen stabilen <strong>und</strong> instabilen Mannigfaltigkeiten W s<br />

loc (γ ɛ) <strong>und</strong> W u<br />

loc (γ ɛ)<br />

sind C r -nahe an denen des ungestörten periodischen Orbits p 0 × S 1 . Trajektorien q s ɛ (t, t 0) <strong>und</strong><br />

q s ɛ(t, t 0 ), welche in W s (γ ɛ ) <strong>und</strong> W u (γ ɛ ) liegen, können wie folgt ausgedrückt werden. Es gilt<br />

q s ɛ(t, t 0 ) = q 0 (t − t 0 ) + ɛq s 1(t, t 0 ) + O(ɛ 2 ), t ∈ [t 0 , ∞)<br />

q u ɛ (t, t 0) = q 0 (t − t 0 ) + ɛq u 1 (t, t 0) + O(ɛ 2 ), t ∈ (−∞, t 0 ]<br />

gleichmäßig auf den angegeben Intervallen.<br />

Beweis: Die Behauptung über die lokalen Mannigfaltigkeiten folgt unmittelbar aus der Theorie<br />

der invarianten Mannigfaltigkeiten. Siehe [Van89].<br />

Die Abschätzung für qɛ s(t, t 0) folgt mit Hilfe der Gronwallschen Gleichung unter Beachtung,<br />

dass nach einer endlichen Zeit die Lösung mit einer exponentiellen Rate in den Fixpunkt gezogen<br />

wird. Durch Umdrehen der Zeit folgt die Behauptung für qɛ u(t, t 0).<br />

□<br />

Wir betrachten nun Poincaré-Abbildungen P t 0<br />

ɛ : Σ t 0<br />

→ Σ t 0<br />

, wobei Σ t 0<br />

= {(x, t) | t = t 0 ∈<br />

[0, 2π]}. Dann definieren wir den Abstand der Mannigfaltigkeiten W u (p t 0 ɛ ) <strong>und</strong> W s (p t 0 ɛ ) in der<br />

Schnittebene Σ t 0<br />

bezüglich des Punktes q 0 (0) durch<br />

d(t 0 ) = q u ɛ (t 0) − q s ɛ (t 0),<br />

90


wobei q u ɛ (t 0 ) = q u ɛ (t 0 , t 0 ) <strong>und</strong> q s ɛ(t 0 ) = q s ɛ(t 0 , t 0 ) die Punkte auf W u (p t 0 ɛ ) <strong>und</strong> W s (p t 0 ɛ ) sind,<br />

welche auf der Normalen<br />

f ⊥ (q 0 (0)) = (−f 2 (q 0 (0)), f 1 (q 0 (0))) T<br />

an den ungestörten homoklinen Orbit in q 0 (0) liegen. Siehe Abbildung 31.<br />

W<br />

u<br />

( p )<br />

ε<br />

p<br />

ε<br />

p<br />

0<br />

q<br />

s<br />

ε<br />

q<br />

u<br />

ε<br />

W<br />

s<br />

( )<br />

p ε<br />

f(q 0<br />

)<br />

Aus dem obigen Lemma folgt<br />

Abbildung 31: Berechnung der Melnikovfunktion.<br />

d(t 0 ) = ɛ f(q0 (0)) ∧ (q u 1 (t 0) − q s 1 (t 0))<br />

‖f(q 0 (0))‖<br />

+ O(ɛ 2 ).<br />

Dabei ist a∧b = a 1 b 2 −a 2 b 1 <strong>und</strong> f(q 0 (0))∧(q u 1 (t 0)−q s 1 (t 0)) die Projektion von (q u 1 (t 0)−q s 1 (t 0))<br />

auf f ⊥ (q 0 (0)).<br />

Um den Ausdruck d(t 0 ) berechnen zu können, definieren wir die Melnikovfunktion<br />

M(t 0 ) =<br />

∫ ∞<br />

−∞<br />

f(q 0 (t − t 0 )) ∧ g(q 0 (t − t 0 ), t)dt.<br />

Theorem 6.20 Wenn M(t 0 ) einfache Nullstellen besitzt, dann schneiden sich W u (p t 0 ɛ ) <strong>und</strong><br />

W s (p t 0 ɛ ), für ɛ > 0 hinreichend klein, transversal. Wenn M(t 0 ) von Null wegbeschränkt ist,<br />

gilt W u (p t 0 ɛ ) ∩ W s (p t 0 ɛ ) = ∅.<br />

Beweis: Wir definieren<br />

Wir erhalten<br />

∆(t, t 0 ) = f(q 0 (t − t 0 )) ∧ (q u 1 (t, t 0) − q s 1 (t, t 0))<br />

= ∆ u (t, t 0 ) − ∆ s (t, t 0 ).<br />

d<br />

dt ∆s (t, t 0 ) = Df(q 0 (t − t 0 )) ˙q 0 (t − t 0 ) ∧ q s 1(t, t 0 ) + f(q 0 (t − t 0 )) ∧ ˙q s 1(t, t 0 ).<br />

91


Aus<br />

<strong>und</strong> ˙q 0 = f(q 0 ) folgt<br />

Damit ergibt sich 6<br />

˙q s ɛ = ˙qs 0 + ɛ ˙qs 1 + O(ɛ2 ) = f(q 0 ) + ɛDf(q 0 )q s 1 + ɛg(q 0) + O(ɛ 2 )<br />

˙q s 1 (t, t 0) = Df(q 0 (t − t 0 ))q s 1 (t, t 0) + g(q 0 (t − t 0 ), t)<br />

d<br />

dt ∆s (t, t 0 ) = Df(q 0 )f(q 0 ) ∧ qs 1 + f(q 0) ∧ (Df(q 0 )q1 s + g(q 0, t))<br />

= (spurDf(q 0 ))∆ s + f(q 0 ) ∧ g(q 0 , t).<br />

Es gilt spurDf(q 0 ) = 0, da f ein Hamiltonsches Vektorfeld ist. Integrieren wir von t 0 bis ∞,<br />

erhalten wir<br />

∆ s (∞, t 0 ) − ∆ s (t 0 , t 0 ) =<br />

∫ ∞<br />

t 0<br />

f(q 0 (t − t 0 )) ∧ g(q 0 (t − t 0 ), t)dt.<br />

Es ist ∆ s (∞, t 0 ) = lim t→∞ f(q 0 (t − t 0 )) ∧ q1(t s − t 0 ). Da lim t→∞ q 0 (t − t 0 ) = p 0 , folgt<br />

lim t→∞ f(q 0 (t − t 0 )) = 0. Da gleichzeitig q1 s(t, t 0) beschränkt ist, folgt ∆ s (∞, t 0 ) = 0. Analog<br />

finden wir<br />

∆ u (∞, t 0 ) =<br />

∫ t0<br />

−∞<br />

Nach Definition von d(t 0 ) ergibt sich damit<br />

f(q 0 (t − t 0 )) ∧ g(q 0 (t − t 0 ), t)dt.<br />

d(t 0 ) = ɛM(t 0)<br />

‖f(q 0 (0)‖ + O(ɛ2 ).<br />

Da ‖f(q 0 (0))‖ unabhängig von ɛ ist, ist M(t 0 ) eine gute Approximation des Abstandes der<br />

Mannigfaltigkeiten in q 0 (0) auf Σ t 0<br />

Die Funktion M(t 0 ) erfüllt nach Konstruktion M(t 0 ) = M(t 0 + 2π). Wenn sie um Null oszilliert,<br />

müssen, für ɛ > 0 hinreichend klein, q u (t 0 ) <strong>und</strong> q s (t 0 ) bezüglich f ⊥ (q 0 (0)) ihre Orientierung<br />

ändern. Damit existiert ein τ ∈ [0, 2π) mit q u (τ) = q s (τ) <strong>und</strong> daher ein homokliner Punkt<br />

q ∈ W s (p τ ɛ ) ∩ W u (p τ ɛ ). Da alle Poincaré-Abbildungen äquivalent sind, müssen sich W u (p t 0 ɛ )<br />

<strong>und</strong> W s (p t 0 ɛ ) für alle t 0 ∈ [0, 2π) schneiden. Wenn die Nullstellen von M(t 0 ) einfach sind, sind<br />

auch die Nullstellen von d(t 0 ) einfach <strong>und</strong> der Schnitt der Mannigfaltigkeiten ist transversal. Ist<br />

M(t 0 ) von Null wegbeschränkt, kann für ɛ > 0 hinreichend klein, kein Schnitt vorliegen. □<br />

6<br />

(Ma) ∧ b + a ∧ (Mb) = (m 11 a 1 + m 12 a 2 )b 2 − (m 21 a 1 + m 22 a 2 )b 1 + a 1 (m 21 b 1 + m 22 b 2 ) − a 2 (m 11 b 1 + m 12 b 2 )<br />

= a 1 b 1 (−m 21 + m 21 ) + a 1 b 2 (m 11 + m 22 ) + a 2 b 1 (−m 11 − m 22 ) + a 2 b 2 (m 12 − m 12 )<br />

= (m 11 + m 22 )(a 1 b 2 − a 2 b 1 )<br />

= (spurM)(a ∧ b).<br />

92


Bemerkung 6.21 Durch die Koordinatentransformation t ↦→ t + t 0 erhalten wir die übliche<br />

Form<br />

M(t 0 ) =<br />

∫ ∞<br />

−∞<br />

f(q 0 (t)) ∧ g(q 0 (t), t + t 0 ).<br />

Dieses Integral kann numerisch recht gut berechnet werden, da q 0 (t) → p 0 für t → ±∞ mit<br />

einer exponentiellen Rate, d.h. f(q 0 (t)) → 0 mit einer exponentiellen Rate.<br />

Beispiel 6.22 Wir betrachten das zweidimensionale zeitlich periodische System<br />

˙u = v,<br />

˙v = u − u 3 + ɛ(γ cos ωt − δv).<br />

Dieses beschreibt eine nichtlineare Feder mit zeitlich periodischer Anregung mit Amplitude γ<br />

<strong>und</strong> Dämpfung δ. Für ɛ = 0 besitzt das System den hyperbolischen Fixpunkt (0, 0) <strong>und</strong> die<br />

Zentren (±1, 0). Als Hamiltonfunktion H finden wir<br />

H(u, v) = v2<br />

2 − u2<br />

2 + u4<br />

4<br />

Die Äquipotentialfläche H = 0 besteht aus zwei homoklinen Orbits Γ 0 + , Γ0 −<br />

p 0 = (0, 0). Wählen wir q± 0 = (± √ 2, 0), so ergibt sich<br />

<strong>und</strong> dem Punkt<br />

−∞<br />

∫ ∞<br />

q 0 + (t) = (√ 2 sech t, − √ 2 sech t tanh t),<br />

q 0 − (t) = −q0 + (t).<br />

Als Melnikovfunktion ergibt sich<br />

∫ ∞ (<br />

) (<br />

v 0 (t)<br />

0<br />

M(t 0 ) =<br />

∧<br />

u 0 (t) − (u 0 (t)) 3 γ cos ω(t + t 0 ) − δv 0 (t)<br />

=<br />

v 0 (t)[γ cos ω(t + t 0 ) − δv 0 (t)] dt<br />

)<br />

dt<br />

−∞<br />

= − √ 2γ<br />

∫ ∞<br />

sech t tanh t cos ω(t + t 0 ) dt − 2δ<br />

∫ ∞<br />

sech 2 t tanh 2 t dt.<br />

−∞<br />

Die Integrale können mit Hilfe des Residuensatzes berechnet oder einer Formelsammlung bestimmt<br />

werden. Es ergibt sich<br />

−∞<br />

M(t 0 ; γ, δ, ω) = − 4δ<br />

3 + √ 2γπω sech( πω 2 ) sin ωt 0.<br />

Ist<br />

| 4δ<br />

3 | < √ 2γπω sech( πω 2 ),<br />

so besitzt M(t 0 ) einfache Nullstellen <strong>und</strong> es liegt ein transversaler Schnitt der stabilen <strong>und</strong><br />

instabilen Mannigfaltigkeit vor.<br />

93


6.3 Silnikov-Chaos<br />

In diesem Abschnitt betrachten wir eine autonome dreidimensionale Differentialgleichung, in<br />

welcher eine homokline Trajektorie γ an einem Sattelpunkt mit komplexen Eigenwerten hängt.<br />

Siehe Abbildung 32.<br />

Abbildung 32: Das Silnikov-Beispiel.<br />

Die Eigenwerte seien durch λ ∈ R, ω, ¯ω ∈ C mit Imω ≠ 0 gegeben. Silnikov [Sil65] hat 1965<br />

folgendes gezeigt.<br />

Theorem 6.23 Wenn |Reω| < λ, dann kann der Fluß φ t so gestört werden, dass der gestörte<br />

Fluß ˜φ t einen homoklinen Orbit ˜γ nahe γ besitzt <strong>und</strong> die Wiederkehrabbildung (siehe unten)<br />

auf einer Teilmenge zur Smaleschen Hufeisenabbildung konjugiert ist.<br />

Beweisidee: Wir stören das Vektorfeld in der Nähe des Ursprungs so, dass ein lineares Vektorfeld<br />

⎛ ⎞ ⎛ ⎞ ⎛ ⎞<br />

ẋ α −β 0 x<br />

⎝ ẏ ⎠ = ⎝ β α 0 ⎠ ⎝ y ⎠ ; ω = α + iβ (19)<br />

ż 0 0 λ z<br />

vorliegt. Die Lösungen sind durch<br />

⎛ ⎞ ⎛<br />

x e αt ⎞<br />

((cos βt)x(0) − (sin βt)y(0))<br />

⎝ y ⎠ (t) = ⎝ e αt ((sin βt)x(0) + (cos βt)y(0)) ⎠ (20)<br />

z<br />

e λt z(0)<br />

gegeben. In der Nähe des Ursprungs wird die radiale Komponente r = √ x 2 + y 2 gedämpft,<br />

während |z| anwächst. Wir definieren zwei Flächen<br />

Σ 0 = {(x, y, z)|x 2 + y 2 = r 2 0 and 0 < z < z 1},<br />

Σ 1 = {(x, y, z)|x 2 + y 2 < r 2 0 and z = z 1 > 0}<br />

94


(x,y,z )<br />

1<br />

q<br />

q<br />

(r 0 θ ,z) p<br />

p<br />

Abbildung 33: Die Abbildungen ψ (links) <strong>und</strong> φ (rechts).<br />

<strong>und</strong> setzen voraus, dass Σ 0 <strong>und</strong> Σ 1 in dem Bereich liegen, wo der Fluß linear ist. Die Lösungen<br />

fließen von Σ 0 nach Σ 1 entsprechend Abbildung 33.<br />

Wir berechnen nun die Abbildung ψ : Σ 0 → Σ 1 , die einem Punkt a ∈ Σ 0 den ersten Durchstoßpunkt<br />

der dazugehörigen Lösung durch Σ 1 zuordnet. Dazu lösen wir z 1 = e λt z(0) nach t<br />

auf. Wir erhalten t = λ −1 ln(z 1 /z(0)) als Flugzeit von Σ 0 nach Σ 1 . Damit ergibt sich<br />

φ t (x, y, z) = (( z 1<br />

z )α/λ [(cos γ)x − (sin γ)y], ( z 1<br />

z )α/λ [(sin γ)x + (cos γ)y], z 1 ),<br />

wobei γ = βλ −1 ln(z 1 /z). Mit x = r 0 cos θ <strong>und</strong> y = r 0 sin θ erhalten wir eine zweidimensionale<br />

Abbildung ψ die den Koordinaten θ, z in Σ 0 die Koordinaten x, y in Σ 1 zuweist, genauer<br />

ψ(θ, z) = (r 0 ( z 1<br />

z )α/λ cos(θ + γ), r 0 ( z 1<br />

z )α/λ sin(θ + γ))<br />

= (ψ 1 (θ, z), ψ 2 (θ, z))<br />

Die Abbildung ψ bildet vertikale Abschnitte θ = const. aus Σ 0 in eine logarithmische Spirale<br />

in Σ 1 ab. Um die Streckung <strong>und</strong> Kontraktion der Abbildungen zu sehen, berechnen wir die<br />

Ableitung zu<br />

Diese kann als<br />

Dψ(θ, z) =<br />

Dψ(θ, z) = r 0 ( z (<br />

1 cos γ<br />

z )α/λ sin γ<br />

( ∂ψ1<br />

∂θ<br />

∂ψ 2<br />

∂θ<br />

∂ψ 1<br />

∂z<br />

∂ψ 2<br />

∂z<br />

)<br />

.<br />

) ( − sin γ − sin θ<br />

−α cos θ+β sin θ<br />

)<br />

λz<br />

cos γ − cos θ<br />

geschrieben werden. Damit ergibt sich<br />

( )<br />

αr0 2 det(Dψ) =<br />

z2α/λ 1<br />

z −(1+2α/λ) ,<br />

λ<br />

95<br />

−α sin θ−β cos θ<br />

λz


d.h. für z hinreichend klein, werden die Gebiete verkleinert, wenn 2α < −λ. Nach Voraussetzung<br />

gilt −1 < α/λ < 0 <strong>und</strong> damit werden vertikale Streifen nach obiger Formel gestreckt.<br />

Wir definieren nun eine Abbildung φ, welche eine Umgebung um q über die homokline Lösung<br />

wieder in<br />

˜Σ 0 = {(x, y, z) | x 2 + y 2 = r 2 0, |z| < z 0 }<br />

transportiert. Siehe Abbildung 33. Die Wiederkehrabbildung definieren wir durch durch φ ◦ ψ<br />

für alle Punkte r ∈ Σ 0 mit φ(ψ(r))∈Σ 0 . O.B.d.A. liege p auf der x-Achse, d.h. θ = 0. Definiere<br />

dann<br />

V = { (r, θ, z) | r = r 0 , |θ| ≤ δ, 0 < z < ɛ }.<br />

Wähle W wie in Abbildung 34. Damit haben wir in der Wiederkehrabbildung eine Smalesche<br />

φ(ψ( W)<br />

W<br />

z<br />

p<br />

θ<br />

Hufeisenabbildung gef<strong>und</strong>en.<br />

Abbildung 34: Die Hufeisen-Abbildung im Silnikov-Beispiel.<br />

Bemerkung 6.24 Nach der obigen Konstruktion ist klar, dass abzählbar viele Hufeisenabbildungen<br />

gef<strong>und</strong>en werden können.<br />

6.4 Der Lorenz-Attraktor<br />

Das vom Meteorologen Edward Lorenz [Lor63] aufgestellte Differentialgleichungssystem<br />

ẋ = σ(y − x),<br />

ẏ = ρx − y − xz,<br />

ż = −bz + xy,<br />

mit Parametern ρ = 27, σ = 10 <strong>und</strong> b = 2.66666 sollte ein einfaches Wettermodell darstellen.<br />

Numerische Untersuchungen mittels eines Analogrechners führten zur Feststellung, dass eine<br />

sensitive Abhängigkeit der Lösungen von den Anfangsbedingungen vorliegt.<br />

96


Wir wollen nun eine kurze Zusammenfassung des Bifurkationsszenarios dieser Gleichung geben<br />

<strong>und</strong> so das Zustandekommen des chaotischen Verhaltens untersuchen. Siehe [GH83]. Wir<br />

wählen den Parameter ρ als Bifurkationsparameter. <strong>und</strong> stellen fest, dass die z-Achse eine invariante<br />

Menge ist <strong>und</strong> dass die Symmetrie (x, y, z) ↦→ (−x, −y, z) vorliegt. Für ρ < 1 ist der<br />

Ursprung stabil. Jede Lösung konvergiert letztendlich in den Ursprung. Es existiert eine Lyapunovfunktion,<br />

welche auch den Nachweis einer absorbierenden Menge für ρ > 1 erlaubt. Bei<br />

ρ = 1 überquert ein reeller Eigenwert die imaginäre Achse, was wegen der Symmetrie zu einer<br />

superkritischen Pitchforkbifurkation führt, d.h. zwei stabile Fixpunkte verzweigen aus dem<br />

Ursprung.<br />

Diese sind stabil bis zu einem Wert ρ = ρ Hopf ≈ 24.74. Hier findet eine superkritische Hopfbifurkation<br />

statt, d.h. es verzweigen instabile periodische Lösungen, womit die lokale Bifurkationsanalyse<br />

für ρ > ρ Hopf zu keiner stabilen Lösung mehr führt. Numerische Untersuchungen<br />

ergeben, dass für ρ > 24.06 mit dem Lorenzattraktor eine weitere invariante stabile Menge<br />

existiert.<br />

Sie ist das Produkt einer homoklinen Explosion beim Wert ρ ≈ 13.926, d.h. das Produkt einer<br />

globalen Bifurkation.<br />

Diese kommt wie folgt zustande. Die zwei Äste S 1 <strong>und</strong> S 2 der instabilen Mannigfaltikeit des<br />

Ursprungs sind jeweils mit den dreidimensionalen stabilen Mannigfaltigkeiten der bei ρ = 1<br />

verzweigenden Fixpunkte x 1 <strong>und</strong> x 2 verb<strong>und</strong>en. Bei ρ ≈ 13.926 wechselt der Ast S 1 von x 1<br />

zu x 2 <strong>und</strong> der Ast S 2 von x 2 zu x 1 . Im Bifurkationspunkt sind die zwei Äste S 1 <strong>und</strong> S 2 mit<br />

der zweidimensionalen stabilen Mannigfaltigkeit des Ursprungs verb<strong>und</strong>en, d.h. es liegen zwei<br />

homokline Verbindungen vor. Dieser Vorgang führt erneut zu komplizierter Dynamik <strong>und</strong> dem<br />

Auftreten chaotischen Verhaltens. Wir sprechen von einer homoklinen Explosion [Wig88].<br />

Der Nachweis, dass diese dann ab ρ ≈ 24.06 attraktive Menge tatsächlich chaotische Dynamik<br />

enthält, gelang erst vor kurzem mittels eines computerunterstützten Beweises [Tuc02].<br />

97


Literatur<br />

[Ama83] Herbert Amann. Gewöhnliche <strong>Differentialgleichungen</strong>. de Gruyter Lehrbuch. [de<br />

Gruyter Textbook]. Walter de Gruyter & Co., Berlin, 1983.<br />

[Arn73]<br />

[Arn91]<br />

[CG93]<br />

[CH82]<br />

[CL55]<br />

[DB94]<br />

[Dev89]<br />

[GH83]<br />

[GS85]<br />

Ludwig Arnold. Stochastische <strong>Differentialgleichungen</strong>. R. Oldenbourg Verlag, Munich,<br />

1973. Theorie <strong>und</strong> Anwendung.<br />

V.I. Arnol’d. Gewoehnliche <strong>Differentialgleichungen</strong>. Hochschulbuecher fuer Mathematik,<br />

83. Berlin: Deutscher Verlag der Wissenschaften., 1991.<br />

Lennart Carleson and Theodore W. Gamelin. Complex dynamics. Universitext: Tracts<br />

in Mathematics. Springer-Verlag, 1993.<br />

Shui Nee Chow and Jack K. Hale. Methods of bifurcation theory, volume 251 of<br />

Gr<strong>und</strong>lehren der Mathematischen Wissenschaften [F<strong>und</strong>amental Principles of Mathematical<br />

Science]. Springer-Verlag, New York, 1982.<br />

E. A. Coddington and N. Levinson. Theory of ordinary differential equations. New<br />

York, Toronto, London: McGill-Hill Book Company, Inc. XII, 1955.<br />

Peter Deuflhard and Folkmar Bornemann. Numerische Mathematik. II. de Gruyter<br />

Lehrbuch. [de Gruyter Textbook]. Walter de Gruyter & Co., Berlin, 1994. Integration<br />

gewöhnlicher <strong>Differentialgleichungen</strong>. [Integration of ordinary differential equations].<br />

Robert L. Devaney. An introduction to chaotic dynamical systems. Addison-Wesley<br />

Publishing Company, 1989.<br />

J. Guckenheimer and Ph. Holmes. Nonlinear oscillations, dynamical systems, and<br />

bifurcations of vector fields. Applied Mathematical Sciences, 42, Springer, New York,<br />

1983.<br />

Martin Golubitsky and David G. Schaeffer. Singularities and groups in bifurcation<br />

theory. Vol. I, volume 51 of Applied Mathematical Sciences. Springer-Verlag, New<br />

York, 1985.<br />

[GSS88] Martin Golubitsky, Ian Stewart, and David G. Schaeffer. Singularities and groups in<br />

bifurcation theory. Vol. II, volume 69 of Applied Mathematical Sciences. Springer-<br />

Verlag, New York, 1988.<br />

[Hal88]<br />

[Hen81]<br />

Jack K. Hale. Asymptotic behavior of dissipative systems, volume 25 of Mathematical<br />

Surveys and Monographs. American Mathematical Society, Providence, RI, 1988.<br />

D. Henry. Geometric Theory of Semilinear Parabolic Equations. Springer Lecture<br />

Notes in Mathematics, Vol. 840, 1981.<br />

98


[Ise96]<br />

[Kel67]<br />

[KK74]<br />

[Kre85]<br />

Arieh Iserles. A first course in the numerical analysis of differential equations. Cambridge<br />

Texts in Applied Mathematics. Cambridge University Press, Cambridge, 1996.<br />

A. Kelley. The stable, center-stable, center-unstable, unstable manifolds. J. Diff. Eq.,<br />

3:546–570, 1967.<br />

H. W. Knobloch and F. Kappel. Gewöhnliche <strong>Differentialgleichungen</strong>. B. G. Teubner,<br />

Stuttgart, 1974. Mathematische Leitfäden.<br />

Ulrich Krengel. Ergodic theorems. De Gruyter Studies in Mathematics 6. Berlin-New<br />

York: Walter de Gruyter. VIII, 1985.<br />

[Lor63] E.N. Lorenz. Deterministic non-periodic flow. J. Atmos. Sci., 1963.<br />

[Man91] Benoit B. Mandelbrot. Die fraktale Geometrie der Natur. Birkhaeuser, 1991.<br />

[Mil99]<br />

John Milnor. Dynamics in one complex variable. Introductory lectures. Vieweg.,<br />

1999.<br />

[Oks98] Bernt Oksendal. Stochastic differential equations. Universitext. Springer-Verlag,<br />

Berlin, fifth edition, 1998. An introduction with applications.<br />

[Pal82]<br />

[Pea90]<br />

[PR86]<br />

[RT71]<br />

Welington Palis, Jacob jun.; de Melo. Geometric theory of dynamical systems. An<br />

introduction. Springer-Verlag, 1982.<br />

G. Peano. Démonstration de l’integrabilité des équations différentielles ordinaires.<br />

Math. Annal., 37, 1890.<br />

H.-O. Peitgen and P.H. Richter. The beauty of fractals. Images of complex dynamical<br />

systems. Springer-Verlag, 1986.<br />

David Ruelle and Floris Takens. On the nature of turbulence. Commun. Math. Phys.,<br />

20:167–192, 1971.<br />

[SH96] A. M. Stuart and A. R. Humphries. Dynamical systems and numerical analysis,<br />

volume 2 of Cambridge Monographs on Applied and Computational Mathematics.<br />

Cambridge University Press, Cambridge, 1996.<br />

[Sil65]<br />

L. P. Sil’nikov. A case of the existence of a denumerable set of periodic motions.<br />

Dokl. Akad. Nauk SSSR, 160:558–561, 1965.<br />

[SU03] G. Schneider and H. Uecker. Chaos <strong>und</strong> Fraktale, Vorlesungsskript, WS 2002/2003.<br />

2003.<br />

[Tem97] Roger Temam. Infinite-dimensional dynamical systems in mechanics and physics,<br />

volume 68 of Applied Mathematical Sciences. Springer-Verlag, New York, second<br />

edition, 1997.<br />

99


[Tuc02]<br />

[Van89]<br />

[Ver96]<br />

[Wal82]<br />

[Wig88]<br />

Warwick Tucker. A rigorous ODE solver and Smale’s 14th problem. Fo<strong>und</strong>. Comput.<br />

Math., 2(1):53–117, 2002.<br />

A. Vanderbauwhede. Centre manifolds, normal forms and elementary bifurcations. In<br />

Dynamics reported, Vol. 2, volume 2 of Dynam. Report. Ser. Dynam. Systems Appl.,<br />

pages 89–169. 1989.<br />

Ferdinand Verhulst. Nonlinear differential equations and dynamical systems. Universitext.<br />

Springer-Verlag, Berlin, second edition, 1996. Translated from the 1985<br />

Dutch original.<br />

Peter Walters. An introduction to ergodic theory. Graduate Texts in Mathematics,<br />

Vol. 79. New York - Heidelberg -Berlin: Springer-Verlag. IX, 1982.<br />

Stephen Wiggins. Global bifurcations and chaos. Analytical methods. Applied Mathematical<br />

Sciences, 73. New York etc.: Springer-Verlag., 1988.<br />

100

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!