Zusammenfassung
Auch bei der mehrdimensionalen Differentiation geht es darum, Funktionen durch lineare Abbildungen zu approximieren. Eine solche lineare Abbildung lässt sich für reellwertige Funktionen als Vektor – dem Gradienten – und für vektorwertige Funktionen als Matrix – der Jacobi-Matrix – darstellen. Bei reellwertigen Funktionen wird die zweite Ableitung durch die Hesse-Matrix repräsentiert. Eigenschaften von Gradient und Hesse-Matrix stehen im Zusammenhang zu Monotonie sowie Konvexität und Konkavität. Sie dienen, wie im eindimensionalen Fall, dazu, Optimierungsprobleme zu untersuchen.
Access this chapter
Tax calculation will be finalised at checkout
Purchases are for personal use only
Preview
Unable to display preview. Download preview PDF.
Author information
Authors and Affiliations
Corresponding author
Rights and permissions
Copyright information
© 2010 Springer-Verlag Berlin Heidelberg
About this chapter
Cite this chapter
Pampel, T. (2010). Mehrdimensionale Differentiation. In: Mathematik für Wirtschaftswissenschaftler. Springer-Lehrbuch. Springer, Berlin, Heidelberg. https://doi.org/10.1007/978-3-642-04490-8_15
Download citation
DOI: https://doi.org/10.1007/978-3-642-04490-8_15
Published:
Publisher Name: Springer, Berlin, Heidelberg
Print ISBN: 978-3-642-04489-2
Online ISBN: 978-3-642-04490-8
eBook Packages: Business and Economics (German Language)