disser1.pdf (2006 KB) - Ernst-Moritz-Arndt-Universität Greifswald
disser1.pdf (2006 KB) - Ernst-Moritz-Arndt-Universität Greifswald
disser1.pdf (2006 KB) - Ernst-Moritz-Arndt-Universität Greifswald
Erfolgreiche ePaper selbst erstellen
Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.
4. Grundlagen der Optimalsteuerung<br />
Trotz vieler Untersuchungen ist die Theorie der hinreichenden Bedingungen<br />
für spezielle Optimalsteuerungsprobleme (unter anderem, für die Aufgaben mit<br />
stückweise konstante Steuerungen) noch nicht abgeschlossen.<br />
Gabasov und Kirillova haben in ihren Arbeiten studiert ( [8]), dass das<br />
Pontrjaginsche Maximumprinzip für die in u stetigen Prozesse auf Prozesse mit<br />
stückweise konstanten Steuerungen im Allgemeinen nicht übertragbar ist.<br />
Für stückweise konstante Steuerfunktionen gilt das Maximumprinzip nur<br />
approximativ (Quasimaximumprinzip). Gabasov und Kirillova zeigten z.B., dass<br />
die Differenz zwischen dem Maximum der Hamilton-Funktion und dem Wert der<br />
Hamilton-Funktion für die optimale Steuerung u ∗ (t) kleiner ε gemacht werden kann<br />
und dass dieser Abstand nach Null strebt, falls die Länge der Steuerintervalle h<br />
genügend klein gewählt worden ist. Bei den Steuerintervallen fester Länge gilt das<br />
nicht.<br />
Trotzdem wenden in der Regel viele Autoren das Pontrjaginsche Maximumprinzip<br />
auch in den Aufgaben mit stückweise konstanten Steuerungen, obwohl die<br />
notwendigen Bedingungen in solchen Fällen nicht gesichert sind.<br />
4.5. Bellman-Prinzip<br />
Eine zentrale Methode der Dynamischen Programmierung ist das Bellman-Prinzip.<br />
Dynamische Programmierung kann dann erfolgreich eingesetzt werden, wenn das<br />
Optimierungsproblem aus vielen gleichartigen Teilproblemen besteht, und eine<br />
optimale Lösung des Problems sich aus optimalen Lösungen der Teilprobleme<br />
zusammensetzt. Das Verfahren der dynamischen Programmierung besteht darin, zuerst<br />
die optimalen Lösungen der kleinsten Teilprobleme direkt zu berechnen, und diese<br />
dann geeignet zu einer Lösung eines nächstgrößeren Teilproblems zusammenzusetzen.<br />
Diese Idee wurde 1957 von Bellman formuliert. 5<br />
In der Steuerungstheorie kann man das Prinzip der dynamischen Programmierung<br />
einsetzen, um eine Gleichung herzuleiten (Hamilton-Jacobi-Bellman-Gleichung),<br />
deren Lösung den optimalen Wert der Steuerung ergibt. Die Argumentation ist dabei<br />
folgende: Wenn das Problem zeitabhängig ist, kann man den optimalen Wert des<br />
Zielfunktionals zu einem bestimmten Zeitpunkt betrachten. Zu untersuchen ist also<br />
eine Gleichung für die optimale Lösung, die das Zielfunktional auch zu einem späteren<br />
Zeitpunkt optimal erhält. Diese Überlegung führt zur Hamilton-Jacobi-Bellman-<br />
Gleichung. Damit kann man das Problem in Zeitschritte einteilen, anstatt es auf einmal<br />
lösen zu müssen.<br />
5 Richard Bellman (1920-1984), amerikanischer Mathematiker und Physiker, Erfinder der<br />
Dynamischen Programmierung. Nach ihm sind mehrere Algorithmen und Methoden der Diskreten<br />
Optimierung und benachbarter Gebiete benannt worden, z.B. der Algorithmus von Bellman und<br />
Ford und das Optimalitätsprinzip.<br />
66