Skip to main content

Part of the book series: Proceedings in Operations Research ((ORP,volume 1973))

  • 202 Accesses

Summary

Starting with a model for general problems of optimal control, a maximumprinciple can be derived by partial deviation of objective functional and process in direction of state variables.

Application of model and method to ergodic Marcovprocesses with rewards results in Howard’s method of policy iteration and a new, more effective algorithm.

This is a preview of subscription content, log in via an institution to check access.

Access this chapter

Chapter
USD 29.95
Price excludes VAT (USA)
  • Available as PDF
  • Read on any device
  • Instant download
  • Own it forever
eBook
USD 49.99
Price excludes VAT (USA)
  • Available as PDF
  • Read on any device
  • Instant download
  • Own it forever
Softcover Book
USD 59.99
Price excludes VAT (USA)
  • Compact, lightweight edition
  • Dispatched in 3 to 5 business days
  • Free shipping worldwide - see info

Tax calculation will be finalised at checkout

Purchases are for personal use only

Institutional subscriptions

Preview

Unable to display preview. Download preview PDF.

Unable to display preview. Download preview PDF.

Literatur

  1. BROWN, A.L./PAGE, A.: Elements of Functional Analysis. Van Nostrand Compo London, 1970

    Google Scholar 

  2. CANON, M.D./COLLUM Jr., C.D./POLAK, E.: Theory of Optimal Control and Mathematical Programming. Mc Graw-Hill Series in Systems Science, New York 1970

    Google Scholar 

  3. DIEUDONNE, J.: Foundations of Modern Analysis; Pure and Applied Mathematics, vol. 10, Academic Press, New York 1960

    Google Scholar 

  4. HOWARD, R.A.: Dynamic Programming and Marcov Processes; 2nd ed., pp. 32–43; Cambridge, Massachusetts, MIT Press, 1962

    Google Scholar 

  5. KUSHNER, H.: Introduction to stochastic Controli Holt, Rinehart and Watson, Inc., New York 1971

    Google Scholar 

  6. LAURENT, P.J.: Approximation et optimisation. Collection Enseignement des sciences, 13; Hermann, Paris 1972

    Google Scholar 

  7. LUENBERGER, D.G.: Optimization by Vector Space Methods. Wiley & Sons, New York 1969

    Google Scholar 

  8. SPREMANN, K.: Beweisprinzipien für Optimalitätsbedingungen bei zeitabhängigen Prozessen. Diss. TU München 1972

    Google Scholar 

  9. SPREMANN, K.: Optimierung verschiedener Steuerungsprobleme mit einem funktionalanalytischen Maximumprinzip. Vortrag auf der 1. Diskussionstagung des ADOW in Rheda im Mai 1973; ersch. in ZAMM

    Google Scholar 

  10. SPREMANN, K.: Ein funktionalanalytischer Beweis des Maximumprinzips von Pontrjagin und des sen Verwendung zur Herleitung der Politikiteration von Howard.COMPUTING, 9 (1972)

    Google Scholar 

  11. SPREMANN, K.: Eine konstruktive Methode zur Losung von Kontrollproblemen. Discussion Papers des Instituts fur Wirtschaftstheorie und Operations Research, Nr.4; Universitat Karlsruhe 1973

    Google Scholar 

  12. SPREMANN, K.: Ein Maximumprinzip fur stochastische Prozesse. Vortrag in Oberwolfach im Juli/August 1973

    Google Scholar 

  13. SPREMANN, K./GESSNER, P.: Konstruktive Optimierung dynamischer und stochastischer Prozesse. Mathematical Systems in Economics 81 A.Hain, Meisenheim am Glan 1973

    Google Scholar 

Download references

Author information

Authors and Affiliations

Authors

Editor information

P. Gessner R. Henn V. Steinecke H. Todt

Rights and permissions

Reprints and permissions

Copyright information

© 1974 Physica-Verlag, Rudolf Liebing KG, Würzburg

About this paper

Cite this paper

Spremann, K. (1974). Bewertete Markovprozesse: Ein neuer Lösungsalgorithmus. In: Gessner, P., Henn, R., Steinecke, V., Todt, H. (eds) DGOR Papers of the Annual Meeting 1973 / Vorträge der Jahrestagung 1973. Proceedings in Operations Research, vol 1973. Physica-Verlag HD. https://doi.org/10.1007/978-3-642-99747-1_37

Download citation

  • DOI: https://doi.org/10.1007/978-3-642-99747-1_37

  • Publisher Name: Physica-Verlag HD

  • Print ISBN: 978-3-7908-0138-5

  • Online ISBN: 978-3-642-99747-1

  • eBook Packages: Springer Book Archive

Publish with us

Policies and ethics