disser1.pdf (2006 KB) - Ernst-Moritz-Arndt-Universität Greifswald
disser1.pdf (2006 KB) - Ernst-Moritz-Arndt-Universität Greifswald disser1.pdf (2006 KB) - Ernst-Moritz-Arndt-Universität Greifswald
4. Grundlagen der Optimalsteuerung Satz 4.6 (Notwendige Bedingung). Es existiere die Wertefunktion V (t, x) für das Problem (4.1) auf [t 0 , T ] × R n und sei stetig differenzierbar: V x (t, x) = d V (t, x). dx Sei u ∗ (·) eine open-loop optimale Lösung von (4.1). Dann erfüllt die entsprechnede closed-loop Lösung û(·, ·) die Bedingung û(t, x) = arg max u∈Ω H(t, x, u, V x(t, x)) für alle x ∈ R n und alle t ∈ [t 0 , T ] und V (t, x) erfüllt die partielle Differentialgleichung: −V t (t, x) = max u∈Ω H(x, u, V x(t, x), t), t ∈ [t 0 , T ], V (T, x T ) = q(x(T )). Beweis: Laut der Definition der Funktion V ist V (t + ∆t, x(t + ∆t)) die Wertefunktion für den Teil der Lösung, der zum Zeitpunkt t + ∆t mit dem Zustand x(t + ∆t) beginnt. Dann folgt für alle ∆t: ⎧ 0 ≤ ∆t ≤ T − t: ⎫ t+∆t ⎨ ∫ ⎬ V (t, x) = max g(τ, x(τ), u(τ))dτ + V (t + ∆t, x(t + ∆t)) u(·) zulässig ⎩ ⎭ . t Da V als stetig differenzierbar vorausgesetzt wird und g stetig ist, kann für jeden Stetigkeitspunkt t von u(·) t+∆t ∫ g(τ, x(τ), u(τ))dτ für kleine ∆t-Werte durch g(t, x(t), u(t))∆t + o(∆t) t approximiert werden und es folgt: V (t, x) = max { } g(t, x(t), u(t))∆t + V (t + ∆t, x(t + ∆t)) + o(∆t). u(·) zulässig Nach dem Satz von Taylor ergibt sich: V (t + ∆t, x(t + ∆t)) = V (t, x(t)) + V t (t, x(t))∆t + V x (t, x(t))ẋ(t)∆t + o(∆t). Setzt man dieses Ergebnis in die vorhergehende Gleichung ein, dividiert durch ∆t und beachtet ẋ = f(t, x, u), so folgt für ∆t → 0 und für jedes fixierte t die partielle Differentialgleichung 0 = max u∈Ω { g(t, x, u) + Vt (t, x) + V x (t, x)f(t, x, u) } . Gemäß der Definition der Hamiltonfunktion H lässt sich, weil V t (t, x(t)) nicht von u abhängt, die partielle Differentialgleichung in der Form −V t (t, x) = max u∈Ω H(t, x, u, V x(t, x)) (4.8) schreiben. Die Randbedingung V (T, x T ) = q(x(T )) folgt unmittelbar. Die partielle Differentialgleichung (4.8) wird Hamilton-Jacobi-Bellman-Gleichung 68
4.5. Bellman-Prinzip genannt. 6 Zusammen mit den Endbedingungen entsteht eine Evolutionsgleichung, deren globale Lösbarkeit, wie im Satz gefordert, im Allgemeinen nicht gesichert ist. Satz 4.7 Hinreichende Bedingung. Wenn es auf [t 0 , T ] × R n eine reelle, stetig differenzierbare Funktion V (t, x) gibt, die die Hamilton-Jacobi-Bellman-Gleichung erfüllt, und wenn die durch −V t (t, x) = max u∈Ω H(x, u, V x(t, x), t), (4.9) V (T, x T ) = q(x(T )) û(t, x) = arg max u∈Ω H(x, u, V x(t, x), t) (4.10) bestimmte (closed-loop) Steuerung zulässig ist, dann ist die entsprechende open-loop Steuerung u ∗ (·) mit der zugehörigen Zustandstrajektorie x ∗ (·) eine optimale Lösung von (4.1). Beweis: Die linke Seite von (4.9) ist unabhängig von u, daher kann diese Gleichung auch in der Form max [V t(t, x) + H(x, u, V x (t, x), t)] = 0 (4.11) u∈Ω dargestellt werden. Wir nehmen die zulässige Steuerung u ∗ (·) und wählen eine beliebige (und auf [t 0 , T ] zulässige) Steuerung u − (·). Seien x ∗ (·) und x − (·) die jeweils eindeutigen Zustandstrajektorien, die durch u ∗ (·) beziehungsweise u − (·) auf dem Intervall [t 0 , T ] erzeugt werden, so dass x ∗ (t 0 ) = x − (t 0 ) = x 0 gilt. Dann folgt aus (4.10) und (4.11): 0 =V t (t, x ∗ ) + H(x ∗ (t), u ∗ (t), V ∗ x (t, x ∗ ), t) ≥ V t (t, x − ) + H(x − (t), u − (t), V x (t, x − ), t). Mit der Definition der Hamiltonfunktion H = g +V x ·f und unter Berücksichtigung von dV (t, x) ∂V (t, x) ∂V (t, x) = + f(t, x, u) dt ∂t ∂x 6 Der Name bezieht sich auf William Rowan Hamilton (1805-1865), der zur Entwicklung der Variationsrechnung wesentliche Ergebnisse beitrug, auf Carl Gustav Jacobi (1804-1851), der in der Variationsrechnung weitreichende Beiträge zur Theorie der hinreichenden Bedingungen geleistet hat und auf Richard Bellman (1920-1984), der die dynamische Programmierung auf den Weg brachte. Eigentlich stammt diese Gleichung von Constantin Carathéodory (1873-1950), dessen Name nicht erwähnt wurde. 69
- Seite 18 und 19: 1. Einleitung verschiedene Vorgehen
- Seite 20 und 21: 2. Biologische, ökologische und wi
- Seite 22 und 23: 2. Biologische, ökologische und wi
- Seite 24 und 25: 2. Biologische, ökologische und wi
- Seite 26 und 27: 2. Biologische, ökologische und wi
- Seite 28 und 29: 2. Biologische, ökologische und wi
- Seite 30 und 31: 2. Biologische, ökologische und wi
- Seite 32 und 33: 2. Biologische, ökologische und wi
- Seite 34 und 35: 2. Biologische, ökologische und wi
- Seite 36 und 37: 2. Biologische, ökologische und wi
- Seite 38 und 39: 3. Mathematische Modelle in der Bio
- Seite 40 und 41: 3. Mathematische Modelle in der Bio
- Seite 42 und 43: 3. Mathematische Modelle in der Bio
- Seite 44 und 45: 3. Mathematische Modelle in der Bio
- Seite 46 und 47: 3. Mathematische Modelle in der Bio
- Seite 48 und 49: 3. Mathematische Modelle in der Bio
- Seite 50 und 51: 4. Grundlagen der Optimalsteuerung
- Seite 52 und 53: 4. Grundlagen der Optimalsteuerung
- Seite 54 und 55: 4. Grundlagen der Optimalsteuerung
- Seite 56 und 57: 4. Grundlagen der Optimalsteuerung
- Seite 58 und 59: 4. Grundlagen der Optimalsteuerung
- Seite 60 und 61: 4. Grundlagen der Optimalsteuerung
- Seite 62 und 63: 4. Grundlagen der Optimalsteuerung
- Seite 64 und 65: 4. Grundlagen der Optimalsteuerung
- Seite 66 und 67: 4. Grundlagen der Optimalsteuerung
- Seite 70 und 71: 4. Grundlagen der Optimalsteuerung
- Seite 72 und 73: 4. Grundlagen der Optimalsteuerung
- Seite 74 und 75: 4. Grundlagen der Optimalsteuerung
- Seite 76 und 77: 4. Grundlagen der Optimalsteuerung
- Seite 78 und 79: 4. Grundlagen der Optimalsteuerung
- Seite 80 und 81: 4. Grundlagen der Optimalsteuerung
- Seite 82 und 83: 4. Grundlagen der Optimalsteuerung
- Seite 84 und 85: 5. Numerische Methoden für verschi
- Seite 86 und 87: 5. Numerische Methoden für verschi
- Seite 88 und 89: 5. Numerische Methoden für verschi
- Seite 90 und 91: 5. Numerische Methoden für verschi
- Seite 92 und 93: 5. Numerische Methoden für verschi
- Seite 94 und 95: 5. Numerische Methoden für verschi
- Seite 96 und 97: 5. Numerische Methoden für verschi
- Seite 98 und 99: 5. Numerische Methoden für verschi
- Seite 100 und 101: 5. Numerische Methoden für verschi
- Seite 102 und 103: 5. Numerische Methoden für verschi
- Seite 104 und 105: 5. Numerische Methoden für verschi
- Seite 106 und 107: 5. Numerische Methoden für verschi
- Seite 108 und 109: 5. Numerische Methoden für verschi
- Seite 110 und 111: 5. Numerische Methoden für verschi
- Seite 112 und 113: 5. Numerische Methoden für verschi
- Seite 114 und 115: 5. Numerische Methoden für verschi
- Seite 116 und 117: 6. Zusammenfassung und Ausblick in
4. Grundlagen der Optimalsteuerung<br />
Satz 4.6 (Notwendige Bedingung).<br />
Es existiere die Wertefunktion V (t, x) für das Problem (4.1) auf [t 0 , T ] × R n und sei<br />
stetig differenzierbar: V x (t, x) = d V (t, x).<br />
dx<br />
Sei u ∗ (·) eine open-loop optimale Lösung von (4.1). Dann erfüllt die entsprechnede<br />
closed-loop Lösung û(·, ·) die Bedingung<br />
û(t, x) = arg max<br />
u∈Ω H(t, x, u, V x(t, x)) für alle x ∈ R n und alle t ∈ [t 0 , T ]<br />
und V (t, x) erfüllt die partielle Differentialgleichung:<br />
−V t (t, x) = max<br />
u∈Ω H(x, u, V x(t, x), t), t ∈ [t 0 , T ],<br />
V (T, x T ) = q(x(T )).<br />
Beweis:<br />
Laut der Definition der Funktion V ist V (t + ∆t, x(t + ∆t)) die Wertefunktion für<br />
den Teil der Lösung, der zum Zeitpunkt t + ∆t mit dem Zustand x(t + ∆t) beginnt.<br />
Dann folgt für alle ∆t: ⎧ 0 ≤ ∆t ≤ T − t:<br />
⎫<br />
t+∆t<br />
⎨ ∫<br />
⎬<br />
V (t, x) = max g(τ, x(τ), u(τ))dτ + V (t + ∆t, x(t + ∆t))<br />
u(·) zulässig ⎩<br />
⎭ .<br />
t<br />
Da V als stetig differenzierbar vorausgesetzt wird und g stetig ist, kann für jeden<br />
Stetigkeitspunkt t von u(·)<br />
t+∆t ∫<br />
g(τ, x(τ), u(τ))dτ für kleine ∆t-Werte durch g(t, x(t), u(t))∆t + o(∆t)<br />
t<br />
approximiert werden und es folgt:<br />
V (t, x) = max<br />
{ }<br />
g(t, x(t), u(t))∆t + V (t + ∆t, x(t + ∆t)) + o(∆t).<br />
u(·) zulässig<br />
Nach dem Satz von Taylor ergibt sich:<br />
V (t + ∆t, x(t + ∆t)) = V (t, x(t)) + V t (t, x(t))∆t + V x (t, x(t))ẋ(t)∆t + o(∆t).<br />
Setzt man dieses Ergebnis in die vorhergehende Gleichung ein, dividiert durch ∆t und<br />
beachtet ẋ = f(t, x, u), so folgt für ∆t → 0 und für jedes fixierte t die partielle<br />
Differentialgleichung<br />
0 = max<br />
u∈Ω<br />
{<br />
g(t, x, u) + Vt (t, x) + V x (t, x)f(t, x, u) } .<br />
Gemäß der Definition der Hamiltonfunktion H lässt sich, weil V t (t, x(t)) nicht von u<br />
abhängt, die partielle Differentialgleichung in der Form<br />
−V t (t, x) = max<br />
u∈Ω H(t, x, u, V x(t, x)) (4.8)<br />
schreiben. Die Randbedingung V (T, x T ) = q(x(T )) folgt unmittelbar.<br />
Die partielle Differentialgleichung (4.8) wird Hamilton-Jacobi-Bellman-Gleichung<br />
68