Zusammenfassung
Die Regression ist eines der wichtigsten Werkzeuge der Datenanalyse – auch heute noch. Entsprechend lernen Sie die Grundlagen dieses Verfahren in einfacher Art und Weise. Einige Erweiterungen der einfachen Regression wie multiple Regression und Interaktion finden genauso Beachtung wie die Frage, woran man ein „gutes“ Regressionsmodell und wichtige Prädiktoren erkennen kann. Ein ausführlicheres Beispiel beschließt das Kapitel.
Access this chapter
Tax calculation will be finalised at checkout
Purchases are for personal use only
Notes
- 1.
Da das Kriterium \(y\) als eine Linearkombination der einzelnen Terme \(b_{0}+b_{1}x+\ldots\) gebildet wird, kann man wegen der Addition der Terme von einer linearen Regression sprechen, selbst wenn quadrierte Terme wie \(x^{2}\) in der Modellgleichung vorkommen (J. Cohen et al. 2013).
- 2.
Idealerweise sollten Moderatoren mit den Prädiktoren und dem Kriterium unkorreliert sein (Baron und Kenny 1986).
- 3.
Alternativ könnte man auch schreiben score ~ interessiert*study_time, das ist kürzer und synonym.
- 4.
Außerdem lässt sich so Probleme der Multikollinearität begegnen (McElreath 2015; Eid et al. 2010).
- 5.
Präziser: Wie groß ist der Beitrag dieses Prädiktors für genaue Vorhersagen?
- 6.
F, R, R, F, F, F, F, R, F, R.
- 7.
lm_interest <- lm(score ~ interest, data = stats_test); tidy(lm_interest).
- 8.
Diese Fragen können z. B. über \(R^{2}\) oder über RMSE überprüft werden: glance(lm_interest); RMSE_interest <- sqrt(mean(lm_interest$residuals^2)).
- 9.
Diese Frage kann über den Zuwachs von \(R^{2}\) beantwortet werden (das adjustierte \(R^{2}\) am besten) oder – das ist ein anderer Blickwinkel – über die Frage welches \(b\), d. h. welcher Regressionskoeffizient, am größten ist (im Absolutbetrag).
- 10.
qplot(x = interessiert, y = score, data = stats_test, geom = ″boxplot″).
- 11.
lm2a <- lm(score ~ interessiert, data = stats_test).
- 12.
ggplot(stats_test_nonaaes(x = score, fill = interessiert)) + geom_density(alpha = .5).
- 13.
lm5 <- lm(score ~ I(interest>4), data = stats_test_nona); tidy(lm5); glance(lm5).
- 14.
lm(score ~ interest, data = stats_test_nona) %>% glance() %>% pull(adj.r.squared).
- 15.
glance(lm3)$adj.r.squared - glance(lm2)$adj.r.squared.
Author information
Authors and Affiliations
Corresponding author
Rights and permissions
Copyright information
© 2019 Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature
About this chapter
Cite this chapter
Sauer, S. (2019). Lineare Modelle. In: Moderne Datenanalyse mit R. FOM-Edition. Springer Gabler, Wiesbaden. https://doi.org/10.1007/978-3-658-21587-3_18
Download citation
DOI: https://doi.org/10.1007/978-3-658-21587-3_18
Published:
Publisher Name: Springer Gabler, Wiesbaden
Print ISBN: 978-3-658-21586-6
Online ISBN: 978-3-658-21587-3
eBook Packages: Business and Economics (German Language)