Advertisement

Dynamische Optimierung und ihre Weiterentwicklung

Übersichtsvortrag
Conference paper
  • 179 Downloads
Part of the Proceedings in Operations Research book series (ORP, volume 1973)

Zusammenfassung

Unter dynamischer Optimierung im weitesten Sinne soll die optimale Steuerung zeitabhängiger Prozesse verstanden werden. Hierzu gehören z.B. kontinuierliche Kontrollprobleme, dynamische Stufenprozesse und Markowsche Entscheidungsprozesse. Anwendungsmöglichkeiten und Grenzen klassischer Optimierungsverfahren und Optimalitätskriterien wie Bellmans Methode, Howards Politikiteration und Pontrjagins Maximumprinzip werden aufgezeigt. An Hand eines allgemeinen Optimierungsmodells, das alle diskutierten dynamischen Optimierungsprobleme erfaßt, wird eine konstruktive Methode zur Verbesserung einer beliebigen gegebenen Steuerung entwickelt. Die Methode ist auch dort anwendbar, wo die klassischen Verfahren versagen. Schließlich wird gezeigt, daß man aus dem konstruktiven Ansatz klassische Ergebnisse,insbesondere das Maximumprinzip von Pontrjagin und Howards Politikiteration,herleiten kann.

Summary

All dynamic problems in economics and technology, which may be controlled in an optimal way, shall be called dynamic optimization problems in our sense.

Continuous control problems, Bellmans method of dynamic programming and Markovian decision processes belong to this class of problems.

First we discuss classical optimization techniques and prinziples of optimality as Bellman’s method, Howard’s policy iteration and Pontryagin’s maximum principle which may be applied on several special classes of dynamic optimization problems.

By means of a general optimization model for all dynamic optimization problems discussed we develop a method for the improvement of a given control which may be applied where classical methods fail to work. This direct approach leads also to a new proof of classical results as Pontryagin’s maximum principle and Howard’s policy iteration.

Preview

Unable to display preview. Download preview PDF.

Unable to display preview. Download preview PDF.

Literatur

  1. Bauer, H. und K. Neumann: Berechnung optimaler Steuerungen; Springerverlag, BerIin/Heidelberg/New York 1969Google Scholar
  2. Bellman, R.: Dynamic Programming; Princeton University Press, Princeton 1957Google Scholar
  3. Gessner, P. und K. Spremann: Optimierung in Funktionenräumen; Springer-Verlag Berlin/Heidelberg/New York 1972Google Scholar
  4. Gessner, P. und H. Wacker: Dynamische Optimierung; Carl-Hanser-Verlag, München 1972Google Scholar
  5. Hinderer, K.: Foundations of Non-stationary Dynamic Programming with Discrete Time Parameter; Springer-Verlag, Berlin/Heidelberg/ New York 1970Google Scholar
  6. Howard, R.A.: Dynamische Programmierung und Markov-Prozesse; Verlag Industrielle Organisation, Zürich 1965Google Scholar
  7. Lee, E.B., and L. Markus: Foundations of Optimal Control Theory; John Wiley & Sons,New York/London/Sydney 1968Google Scholar
  8. Neumann, K.: Dynamische Optimierung; Bibliographisches Institut, Mannheim/Wien/Zürich 1969Google Scholar
  9. Neumann, K.: Ein Verfahren zur Lösung gewisser nichtlinearer Kontrollprobleme; Computing 6 (1970a), S. 249–263CrossRefGoogle Scholar
  10. Neumann, K.: Reduzierung des Rechenaufwandes bei der Behandlung sequentieller Entscheidungsprozesse; Operations-Research-Verfahren VIII (1970b), S. 184–201Google Scholar
  11. Pontrjagin, L.S.et al.: Mathematische Theorie optimaler Prozesse; Oldenbourg-Verlag, München/Wien 1967Google Scholar
  12. Spremann, K. und P. Gessner: Konstruktive Optimierung dynamischer und stochastischer Prozesse; Verlag Anton Hain, Meisenheim 1973Google Scholar

Copyright information

© Physica-Verlag, Rudolf Liebing KG, Würzburg 1974

Authors and Affiliations

  1. 1.KarlsruheDeutschland

Personalised recommendations