10.07.2015 Aufrufe

Numerische Optimierung dreidimensional parametrisierter ...

Numerische Optimierung dreidimensional parametrisierter ...

Numerische Optimierung dreidimensional parametrisierter ...

MEHR ANZEIGEN
WENIGER ANZEIGEN
  • Keine Tags gefunden...

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

den mehrdimensionalen Variablenraum entlang der Koordinatenrichtungen ab. Die dazu verwandteMustersuche nach Hooke & Jeeves nutzt darüber hinaus zusätzliche mehrdimensionaleExtrapolationsschritte, wodurch die Konvergenz erheblich gesteigert wird. Gradientenverfahrenbilden zur Bestimmung der Suchrichtung und der Schrittweite die partielle Ableitung derZielfunktion und der Nebenbedingungen. Unter diesen Verfahren haben sich konjugierte Gradienten-Verfahrenund quasi Newton-Verfahren gegenüber Verfahren des schnellsten Abstiegsdurchgesetzt. Dabei wird durch die Bestimmung der Hesse-Matrix 39 bzw. durch die Verwendungvorhergehender Gradientenergebnisse das lokale Krümmungsverhalten der Zielfunktionbestimmt.Die Behandlung von Restriktionen der Zielfunktion erfolgt über verschiedene Mechanismen.Verletzungen von Nebenbedingungen können direkt zur Nichtzulässigkeit des Parametervektorsund dadurch zur Einschränkung des Suchrichtungsschritts führen. Damit wird versucht,die Suche wieder in den zulässigen Bereich zurückzuführen.Bei Verfahren, die eine direkte Behandlung von Restriktionen nicht zulassen, kommen normalerweiseStraffunktionen zum Einsatz. Das <strong>Optimierung</strong>sproblem wird dann auf ein Problemnur zur Behandlung einer Zielfunktion, die einen zusätzlichen Term zur Behandlung derRestriktionen enthält, umformuliert. Diese Vorgehensweise läßt sich bei allen Algorithmen, dienur unrestringierte <strong>Optimierung</strong>sprobleme lösen können, anwenden. Durch die Überführungdes Ziels in ein „Pseudoziel“ leidet allerdings die Effektivität der Verfahren. Es müssen teilweisegezielt Maßnahmen ergriffen werden, um eine schlechte Konditionierung des <strong>Optimierung</strong>sproblemsbzw. eine Verfälschung der Lösung zu verhindern. Der dabei zusätzlicheStraffunktionsterm setzt sich aus den zueinander gewichteten Termen der einzelnen Restriktionenzusammen. Es wird unterschieden, ob dabei eine Verletzung von Restriktionen währendder Suche zulässig ist oder nicht. Falls nicht, wird bei sogenannten inneren Straffunktionen(Barriere-Verfahren) eine starke Überhöhung der Zielfunktion bei Verletzung einer Restriktionherbeigeführt. Bei Verfahren mit äußerer Straffunktion (Penalty-Verfahren) kommen Verletzungenvon Restriktionen während der Suche durchaus vor. Diese müssen am Ende der Sucheaber selbstverständlich gelöst sein. Eine solche Formulierung des Straffunktionsterms erfolgtdurch einen zusätzlichen Gewichtungsfaktor vor den zueinander gewichteten einzelnen Straffunktionstermenoder mittels einzelner zusätzlich zu bestimmender Lagrange Multiplikatoren.Eine Besonderheit stellen die SQP 40 -Verfahren (deterministische Gradientenverfahren) nachHan und Powell dar, die das <strong>Optimierung</strong>sproblem mittels quadratischer Teilprobleme annähern.Sie verbinden die Eigenschaften der quasi-Newton-Verfahren mit dem Lagrange Ansatz39. Die Hesse-Matrix wird aus den ersten Ableitungen und mit Hilfe z. B. des BFGS-Algorithmus aus der vorangegangenenHesse-Matrix bestimmt, ohne die zweiten Ableitungen durch Zielfunktionsberechnungen bestimmenzu müssen.40. SQP: sequentielle quadratische Programmierung57

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!