Zusammenfassung
Im letzten Kapitel haben wir uns zum ersten Mal mit dem Fall zweier numerischer Regressoren X und Z beschäftigt. Dabei war die Regression E(Y\X, Z) eine Linearkombination von X und Z. Eine entscheidende Eigenschaft dabei war, dass die bedingten Regressionen von Y auf X gegeben Z= z lineare Funktionen von X waren, und zwar mit für jeden Wert z von Z gleichen Steigungskoeffizienten der bedingten Regressionsgeraden. Diese verlaufen demnach parallel. In einem solchen Fall sprechen wir von partieller linearer regressiver Abhängigkeit. In diesem Kapitel betrachten wir nun einen etwas komplizierteren Fall, bei dem die bedingten Regressionen zwar ebenfalls lineare Funktionen von X sind, deren Graphen aber nicht mehr unbedingt parallel verlaufen. In diesem Fall sprechen wir nicht mehr von partieller, sondern von bezüglich Z bedingter linearer regressiver Abhängigkeit der Variablen Y von X.
Access this chapter
Tax calculation will be finalised at checkout
Purchases are for personal use only
Preview
Unable to display preview. Download preview PDF.
Author information
Authors and Affiliations
Rights and permissions
Copyright information
© 2003 Springer-Verlag Berlin Heidelberg
About this chapter
Cite this chapter
Steyer, R. (2003). Bedingte lineare Regression. In: Wahrscheinlichkeit und Regression. Springer-Lehrbuch. Springer, Berlin, Heidelberg. https://doi.org/10.1007/978-3-642-55673-9_10
Download citation
DOI: https://doi.org/10.1007/978-3-642-55673-9_10
Publisher Name: Springer, Berlin, Heidelberg
Print ISBN: 978-3-642-62873-3
Online ISBN: 978-3-642-55673-9
eBook Packages: Springer Book Archive