disser1.pdf (2006 KB) - Ernst-Moritz-Arndt-Universität Greifswald
disser1.pdf (2006 KB) - Ernst-Moritz-Arndt-Universität Greifswald disser1.pdf (2006 KB) - Ernst-Moritz-Arndt-Universität Greifswald
4. Grundlagen der Optimalsteuerung unter der Nebenbedingung: ẋ(t) = f(t, x(t), u(t)), x(t 0 ) = x 0 (4.1) Eine Steuerung u(·) : [t 0 , T ] → Ω heißt zulässig, wenn die Lösung der entsprechenden Anfangswertaufgabe mit x(t 0 ) = x 0 (und unter Umständen weiteren Nebenbedingungen), auf dem gesamten Zeitintervall [t 0 , T ] existiert. Die Aufgabe der optimalen Steuerung besteht also darin, unter allen zulässigen Paaren x = x(·) und u = u(·) ein solches mit maximalem Zielfunktionalwert zu bestimmen. Die optimale Steuerung kann manchmal mittels des Pontrjaginschen Maximumprinzips (notwendige Bedingungen) oder durch das Lösen der Hamilton- Jacobi-Bellman-Gleichung ausgerechnet werden. 4.1. Das Maximumprinzip von Pontrjagin 4.1.1. Stückweise stetige Steuerungen Das klassische Maximumprinzip von Pontrjagin für die Aufgabe (4.1) ist eine notwendige Optimalitätsbedingung. Eine der ersten Formulierungen des Maximumprinzips mit dem Beweis gelang dem russischen Mathematiker V. G. Boltyanskii aus der Arbeitsgruppe von L.Pontryagin und dessen Mitarbeitern R. V. Gamkrelidze und E. F. Mishchenko. 2 Ungefähr zeitgleich gelang auch Magnus R. Hestenes ein Beweis der Bedingung (vgl. [11]). Wir definieren die Hamilton-Funktion R n × R m × R n × [t 0 , T ] → R als: H(x, u, λ, t) = g(t, x, u) + λ = (λ 1 , . . . , λ n ) n∑ λ i · f i (t, x, u), i=1 wobei die Variablen λ i , werden. i = 1, . . . , n als adjungierte (oder Kozustände) bezeichnet 2 Lew Semjonowitsch Pontrjagin (1908-1988), russischer Mathematiker. Er beschäftigte sich mit zahlreichen mathematischen Gebieten, wie Topologie, Graphentheorie, Differentialgleichungen etc. Seit den 50er arbeitete er in der Optimierungstheorie. Das Pontrjaginsche Maximumprinzip wurde als These von Pontrjagin (und seiner Arbeitsgruppe) formuliert, für viele Aufgaben bewiesen und ist grundlegend für die moderne Theorie der Optimalsteuerungen. Wladimir Grigorjewitsch Boltjanski (geb. 1925) ist für seine Arbeiten über dynamische Optimierung und Steuerungstheorie (stetiger und diskreter Prozesse) bekannt. Er bewies darin u.a. das Pontrjaginsche Maximumprinzip für nichtlineare Prozesse. 50
4.1. Das Maximumprinzip von Pontrjagin Satz 4.1 Seien f, g stetig und stetig partiell nach x differenzierbar. Seien x ∗ (·), u ∗ (·) optimal, dann gibt es eine nichttriviale Lösung der adjungierten Gleichung ˙λ(t) = − ∂ ∂x H(x∗ (t), u ∗ (t), λ(t), t), t 0 ≤ t ≤ T , so dass ➣ die Maximumbedingung H(x ∗ (t), u ∗ (t), λ(t), t) = max u∈Ω H(x∗ (t), u, λ(t), t), für fast alle t ∈ [t 0 , T ] ➣ und die Transversalitätsbedingung λ(T ) = − ∂q ∂x (x∗ (T )) erfüllt sind. Es gibt eine Reihe von Methoden das Maximumprinzip zu beweisen. Ein klassischer Weg ist die Verwendung von sogenannten Nadelvariationen. Das bedeutet, es werden zulässige Steuerungen betrachtet, die von der optimalen Steuerung in einer beliebiger Weise abweichen, aber nur auf einer endlichen Anzahl von kleinen Zeitintervallen. Da die Steuerungen stückweise stetig sind, lässt sich diese Transformation ausführen. Dann wird eine Linearisierung des Problems in einer Umgebung der optimalen Lösung durchgeführt und es werden konvexe Variationskegel der optimalen und der gestörten Trajektorien konstruiert. Anschließend wird ein Trennungssatz von konvexen Kegel angewendet. Die entsprechende Bedingung kann analytisch geschrieben werden, dieses führt zu dem Ergebnis, dass die optimale Steuerung u ∗ (t) mit der entsprechnenden Trajektorie das Maximum der Hamiltonfunktion H(x ∗ (t), u ∗ (t), λ(t), t) für fast alle t liefert. Ein genauerer Beweis für das Pontrjaginsche Maximumprinzip ist in [33] zu finden. 3 4.1.2. Stückweise konstante Steuerungen Jetzt betrachten wir Aufgabe (4.1) mit stückweise konstanten Steuerungen. Wir betrachten eine Folge t 0 , t 1 , . . . , t N = T und gehen davon aus, dass u(t) = u(t k ) für alle t ∈ [t k , t k+1 ), k = 0, . . . , N − 1 ist. In dem Fall, wenn die Konstantheitsintervalle vorgegeben sind oder die Länge dieser Intervalle nach unten beschränkt, gilt das Pontrjaginsche Maximum-Prinzip in der klassischen Form nicht. Es gibt eine Reihe von Publikationen, die sich mit dieser Aufgabe beschäftigen und versuchen, notwendige (und manchmal auch hinreichende) Bedingungen zu formulieren. [35] gibt z.B. einen alternativen Pontrjaginschen Weg, bei dem sich die Optimalität einer Lösung durch ein Integralkriterium prüfen lässt. Wir gehen von einer Standard-Formulierung der Hamilton-Funktion aus und setzen die Existenz der partiellen Ableitungen f u und g u voraus. Bei dieser Aufgabe dürfen wir keine Nadelvariationen im Sinne von Pontrjagin benutzen. Wir stören die optimale Steuerung u ∗ (t k ) auf dem ganzen Intervall [t k , t k+1 ), k = 0, . . . , N − 1. Dabei 3 für alle Stetigkeitspunkte von u ∗ (·) 51
- Seite 1 und 2: Anwendungen der Optimalsteuerung in
- Seite 3: »Nach unserer bisherigen Erfahrung
- Seite 6 und 7: Inhaltsverzeichnis 4. Grundlagen de
- Seite 8 und 9: Inhaltsverzeichnis 8
- Seite 10 und 11: Abbildungsverzeichnis 5.2. Stückwe
- Seite 12 und 13: Abbildungsverzeichnis 12
- Seite 14 und 15: 1. Einleitung Änderungen in den Me
- Seite 16 und 17: 1. Einleitung Abbildung 1.1.: Entwi
- Seite 18 und 19: 1. Einleitung verschiedene Vorgehen
- Seite 20 und 21: 2. Biologische, ökologische und wi
- Seite 22 und 23: 2. Biologische, ökologische und wi
- Seite 24 und 25: 2. Biologische, ökologische und wi
- Seite 26 und 27: 2. Biologische, ökologische und wi
- Seite 28 und 29: 2. Biologische, ökologische und wi
- Seite 30 und 31: 2. Biologische, ökologische und wi
- Seite 32 und 33: 2. Biologische, ökologische und wi
- Seite 34 und 35: 2. Biologische, ökologische und wi
- Seite 36 und 37: 2. Biologische, ökologische und wi
- Seite 38 und 39: 3. Mathematische Modelle in der Bio
- Seite 40 und 41: 3. Mathematische Modelle in der Bio
- Seite 42 und 43: 3. Mathematische Modelle in der Bio
- Seite 44 und 45: 3. Mathematische Modelle in der Bio
- Seite 46 und 47: 3. Mathematische Modelle in der Bio
- Seite 48 und 49: 3. Mathematische Modelle in der Bio
- Seite 52 und 53: 4. Grundlagen der Optimalsteuerung
- Seite 54 und 55: 4. Grundlagen der Optimalsteuerung
- Seite 56 und 57: 4. Grundlagen der Optimalsteuerung
- Seite 58 und 59: 4. Grundlagen der Optimalsteuerung
- Seite 60 und 61: 4. Grundlagen der Optimalsteuerung
- Seite 62 und 63: 4. Grundlagen der Optimalsteuerung
- Seite 64 und 65: 4. Grundlagen der Optimalsteuerung
- Seite 66 und 67: 4. Grundlagen der Optimalsteuerung
- Seite 68 und 69: 4. Grundlagen der Optimalsteuerung
- Seite 70 und 71: 4. Grundlagen der Optimalsteuerung
- Seite 72 und 73: 4. Grundlagen der Optimalsteuerung
- Seite 74 und 75: 4. Grundlagen der Optimalsteuerung
- Seite 76 und 77: 4. Grundlagen der Optimalsteuerung
- Seite 78 und 79: 4. Grundlagen der Optimalsteuerung
- Seite 80 und 81: 4. Grundlagen der Optimalsteuerung
- Seite 82 und 83: 4. Grundlagen der Optimalsteuerung
- Seite 84 und 85: 5. Numerische Methoden für verschi
- Seite 86 und 87: 5. Numerische Methoden für verschi
- Seite 88 und 89: 5. Numerische Methoden für verschi
- Seite 90 und 91: 5. Numerische Methoden für verschi
- Seite 92 und 93: 5. Numerische Methoden für verschi
- Seite 94 und 95: 5. Numerische Methoden für verschi
- Seite 96 und 97: 5. Numerische Methoden für verschi
- Seite 98 und 99: 5. Numerische Methoden für verschi
4. Grundlagen der Optimalsteuerung<br />
unter der Nebenbedingung:<br />
ẋ(t) = f(t, x(t), u(t)), x(t 0 ) = x 0 (4.1)<br />
Eine Steuerung u(·) : [t 0 , T ] → Ω heißt zulässig, wenn die Lösung der<br />
entsprechenden Anfangswertaufgabe mit x(t 0 ) = x 0 (und unter Umständen weiteren<br />
Nebenbedingungen), auf dem gesamten Zeitintervall [t 0 , T ] existiert.<br />
Die Aufgabe der optimalen Steuerung besteht also darin, unter allen zulässigen Paaren<br />
x = x(·) und u = u(·) ein solches mit maximalem Zielfunktionalwert zu bestimmen.<br />
Die optimale Steuerung kann manchmal mittels des Pontrjaginschen<br />
Maximumprinzips (notwendige Bedingungen) oder durch das Lösen der Hamilton-<br />
Jacobi-Bellman-Gleichung ausgerechnet werden.<br />
4.1. Das Maximumprinzip von Pontrjagin<br />
4.1.1. Stückweise stetige Steuerungen<br />
Das klassische Maximumprinzip von Pontrjagin für die Aufgabe (4.1) ist<br />
eine notwendige Optimalitätsbedingung. Eine der ersten Formulierungen des<br />
Maximumprinzips mit dem Beweis gelang dem russischen Mathematiker V. G.<br />
Boltyanskii aus der Arbeitsgruppe von L.Pontryagin und dessen Mitarbeitern R. V.<br />
Gamkrelidze und E. F. Mishchenko. 2<br />
Ungefähr zeitgleich gelang auch Magnus R. Hestenes ein Beweis der Bedingung<br />
(vgl. [11]).<br />
Wir definieren die Hamilton-Funktion R n × R m × R n × [t 0 , T ] → R als:<br />
H(x, u, λ, t) = g(t, x, u) +<br />
λ = (λ 1 , . . . , λ n )<br />
n∑<br />
λ i · f i (t, x, u),<br />
i=1<br />
wobei die Variablen λ i ,<br />
werden.<br />
i = 1, . . . , n als adjungierte (oder Kozustände) bezeichnet<br />
2 Lew Semjonowitsch Pontrjagin (1908-1988), russischer Mathematiker. Er beschäftigte sich mit<br />
zahlreichen mathematischen Gebieten, wie Topologie, Graphentheorie, Differentialgleichungen etc.<br />
Seit den 50er arbeitete er in der Optimierungstheorie. Das Pontrjaginsche Maximumprinzip wurde<br />
als These von Pontrjagin (und seiner Arbeitsgruppe) formuliert, für viele Aufgaben bewiesen<br />
und ist grundlegend für die moderne Theorie der Optimalsteuerungen. Wladimir Grigorjewitsch<br />
Boltjanski (geb. 1925) ist für seine Arbeiten über dynamische Optimierung und Steuerungstheorie<br />
(stetiger und diskreter Prozesse) bekannt. Er bewies darin u.a. das Pontrjaginsche Maximumprinzip<br />
für nichtlineare Prozesse.<br />
50