31.01.2014 Aufrufe

disser1.pdf (2006 KB) - Ernst-Moritz-Arndt-Universität Greifswald

disser1.pdf (2006 KB) - Ernst-Moritz-Arndt-Universität Greifswald

disser1.pdf (2006 KB) - Ernst-Moritz-Arndt-Universität Greifswald

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

4. Grundlagen der Optimalsteuerung<br />

Trotz vieler Untersuchungen ist die Theorie der hinreichenden Bedingungen<br />

für spezielle Optimalsteuerungsprobleme (unter anderem, für die Aufgaben mit<br />

stückweise konstante Steuerungen) noch nicht abgeschlossen.<br />

Gabasov und Kirillova haben in ihren Arbeiten studiert ( [8]), dass das<br />

Pontrjaginsche Maximumprinzip für die in u stetigen Prozesse auf Prozesse mit<br />

stückweise konstanten Steuerungen im Allgemeinen nicht übertragbar ist.<br />

Für stückweise konstante Steuerfunktionen gilt das Maximumprinzip nur<br />

approximativ (Quasimaximumprinzip). Gabasov und Kirillova zeigten z.B., dass<br />

die Differenz zwischen dem Maximum der Hamilton-Funktion und dem Wert der<br />

Hamilton-Funktion für die optimale Steuerung u ∗ (t) kleiner ε gemacht werden kann<br />

und dass dieser Abstand nach Null strebt, falls die Länge der Steuerintervalle h<br />

genügend klein gewählt worden ist. Bei den Steuerintervallen fester Länge gilt das<br />

nicht.<br />

Trotzdem wenden in der Regel viele Autoren das Pontrjaginsche Maximumprinzip<br />

auch in den Aufgaben mit stückweise konstanten Steuerungen, obwohl die<br />

notwendigen Bedingungen in solchen Fällen nicht gesichert sind.<br />

4.5. Bellman-Prinzip<br />

Eine zentrale Methode der Dynamischen Programmierung ist das Bellman-Prinzip.<br />

Dynamische Programmierung kann dann erfolgreich eingesetzt werden, wenn das<br />

Optimierungsproblem aus vielen gleichartigen Teilproblemen besteht, und eine<br />

optimale Lösung des Problems sich aus optimalen Lösungen der Teilprobleme<br />

zusammensetzt. Das Verfahren der dynamischen Programmierung besteht darin, zuerst<br />

die optimalen Lösungen der kleinsten Teilprobleme direkt zu berechnen, und diese<br />

dann geeignet zu einer Lösung eines nächstgrößeren Teilproblems zusammenzusetzen.<br />

Diese Idee wurde 1957 von Bellman formuliert. 5<br />

In der Steuerungstheorie kann man das Prinzip der dynamischen Programmierung<br />

einsetzen, um eine Gleichung herzuleiten (Hamilton-Jacobi-Bellman-Gleichung),<br />

deren Lösung den optimalen Wert der Steuerung ergibt. Die Argumentation ist dabei<br />

folgende: Wenn das Problem zeitabhängig ist, kann man den optimalen Wert des<br />

Zielfunktionals zu einem bestimmten Zeitpunkt betrachten. Zu untersuchen ist also<br />

eine Gleichung für die optimale Lösung, die das Zielfunktional auch zu einem späteren<br />

Zeitpunkt optimal erhält. Diese Überlegung führt zur Hamilton-Jacobi-Bellman-<br />

Gleichung. Damit kann man das Problem in Zeitschritte einteilen, anstatt es auf einmal<br />

lösen zu müssen.<br />

5 Richard Bellman (1920-1984), amerikanischer Mathematiker und Physiker, Erfinder der<br />

Dynamischen Programmierung. Nach ihm sind mehrere Algorithmen und Methoden der Diskreten<br />

Optimierung und benachbarter Gebiete benannt worden, z.B. der Algorithmus von Bellman und<br />

Ford und das Optimalitätsprinzip.<br />

66

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!