Zusammenfassung
In Abschnitt 3.6 wird behandelt, wie sich der Einfluß eines erklärenden Merkmals X auf ein Zielmerkmal Y darstellen und explorativ untersuchen läßt. Beide Merkmale werden dabei als metrisch skaliert vorausgesetzt, und es wird angenommen, daß der Zusammenhang zwischen Y und X durch eine approximative Beziehung der Form \(Y = f(X) + \varepsilon \) beschrieben werden kann. Dabei ist f eine deterministische Regressionsfunktion und ε ein Fehler, der durch X allein nicht erklärbar ist. Am bekanntesten ist die lineare Einfachregression, bei der eine lineare Regressionsfunktion \([f = (X) = \alpha + \beta X\) als “Ausgleichsgerade” verwendet wird. Als Beispiele betrachten wir auch in diesem Kapitel das CAP-Modell mit Y = “Aktienrendite minus Zins” und X = “Marktrendite” und die Mietspiegel-Regression mit Y = “Nettomiete” (oder “Nettomiete/qm”) und X =“Wohnfläche”. Die Abbildungen 3.17 und 3.20 aus Abschnitt 3.6 zeigen die Streudiagramme und zugehörigen Ausgleichsgeraden.
This is a preview of subscription content, log in via an institution.
Buying options
Tax calculation will be finalised at checkout
Purchases are for personal use only
Learn about institutional subscriptionsPreview
Unable to display preview. Download preview PDF.
Author information
Authors and Affiliations
Rights and permissions
Copyright information
© 1999 Springer-Verlag Berlin Heidelberg
About this chapter
Cite this chapter
Fahrmeir, L., Künstler, R., Pigeot, I., Tutz, G. (1999). Regressionsanalyse. In: Statistik. Springer-Lehrbuch. Springer, Berlin, Heidelberg. https://doi.org/10.1007/978-3-662-10033-2_12
Download citation
DOI: https://doi.org/10.1007/978-3-662-10033-2_12
Publisher Name: Springer, Berlin, Heidelberg
Print ISBN: 978-3-540-65053-9
Online ISBN: 978-3-662-10033-2
eBook Packages: Springer Book Archive