Advertisement

Nichtlineare Optimierung

Chapter
  • 1.8k Downloads

zusammenfassung

Bislang haben wir uns intensiv mit der Optimierung von linearen Zielfunktionen mit linearen Nebenbedingungen beschäftigt und unterschiedliche Lösungsverfahren dazu kennengelernt. Die nichtlineare Optimierung behandelt allgemeine Zielfunktionen mit einem zulässigen Bereich, welcher nicht (nur) durch lineare Nebenbedingungen definiert wird. Je nach Struktur und Eigenschaften gibt es sehr unterschiedliche Methoden zur Optimierung nichtlinearer Zielfunktionen, sodass wir in diesem Kapitel nur eine kleine Auswahl dieser Verfahren vorstellen können. Wir beginnen in Abschn. 4.1 mit allgemeinen Definitionen und Grundlagen sowie den notwendigen Optimalitätskriterien erster und zweiter Ordnung für differenzierbare Zielfunktionen. Anschließend präsentieren wir in Abschn. 4.2 das Gradientenverfahren, welches (möglicherweise) gegen ein lokales Minimum konvergiert. Als weitere Spezialfälle fassen wir in Abschn. 4.3 und Abschn. 4.4 Ergebnisse für nichtlineare Optimierungsprobleme mit konvexen bzw. konkaven Zielfunktionen zusammen. Schließlich präsentieren wir in Abschn. 4.5 mit den Fritz-John-Bedingungen notwendige Optimalitätsbedingungen für stetig differenzierbare Zielfunktionen mit stetig differenzierbaren Nebenbedingungen. Abschließend stellen wir in Abschn. 4.6 das Nelder-Mead-Verfahren vor, welches keinerlei Anforderungen an die Zielfunktion stellt. Aus theoretischer Sicht lassen sich hier keine zuverlässigen Konvergenzeigenschaften angeben, in vielen praktischen Anwendungsfällen liefert das Verfahren jedoch sehr gute Ergebnisse.

Preview

Unable to display preview. Download preview PDF.

Unable to display preview. Download preview PDF.

Copyright information

© Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2018

Authors and Affiliations

  1. 1.BraunschweigDeutschland

Personalised recommendations