Advertisement

Quantitative Bildungsforschung und Assessments

  • Benjamin NagengastEmail author
  • Norman RoseEmail author
Chapter
Part of the Springer Reference Sozialwissenschaften book series (SRS)

Zusammenfassung

Das Kapitel stellt typische Forschungsdesigns der quantitativen Bildungsforschung vor und beurteilt diese nach ihrer Aussagekraft sowie ihrer externen und internen Validität. Danach werden drei zentrale Herausforderungen bei der Auswertung von Daten in der quantitativen Bildungsforschung diskutiert (Messfehlerproblem, Mehrebenenstruktur, kausale Inferenz) und kurz die statistischen Methoden beschrieben, mit denen diese Probleme in der Regel adressiert werden.

Schlüsselwörter

Forschungsdesigns Large Scale Assessments Testtheorie Mehrebenenanalyse Kausale Inferenz 

Literatur

  1. Asendorpf, J. B., Conner, M., De Fruyt, F., De Houwer, J., Denissen, J. J. A., Fiedler, K., et al. (2013). Recommendations for increasing replicability in psychology. European Journal of Personality, 27, 108–119.CrossRefGoogle Scholar
  2. Birnbaum, A. (1968). Some latent trait models and their use in inferring an examinee’s ability. In F. M. In Lord & M. R. Novick (Hrsg.), Statistical theories of mental test scores (S. 395–479). Reading: Addison-Wesley.Google Scholar
  3. Bock, R. D., & Zimowski, M. F. (1997). Multiple group IRT. In W. J. van der Linden & R. K. Hambleton (Hrsg.), Handbook of modern item response theory (S. 433–448). New York: Springer.CrossRefGoogle Scholar
  4. Bollen, K. A. (2002). Latent variables in psychology and the social sciences. Annual Review of Psychology, 53(1), 605–634.CrossRefGoogle Scholar
  5. Bortz, J., & Döring, N. (1995). Forschungsmethoden und Evaluation für Human-und Sozialwissenschaftler. Berlin: Springer.CrossRefGoogle Scholar
  6. Bromme, R., Prenzel, M., & Jäger, M. (2014). Educational research and evidence based educational policy. Zeitschrift für Erziehungswissenschaft, 17(4), 3–54.CrossRefGoogle Scholar
  7. Cafri, G., Hedeker, D., & Aarons, G. A. (2015). An introduction and integration of cross-classified, multiple membership, and dynamic group random-effects models. Psychological Methods.  https://doi.org/10.1037/met0000043.Google Scholar
  8. De Boeck, P., & Wilson, M. (2004). Explanatory item response models: A generalized linear and nonlinear approach. New York: Springer.CrossRefGoogle Scholar
  9. Fox, J. P. (2005). Multilevel IRT model assessment. In L. A. van der Ark, M. A. Croon & K. Sijtsma (Hrsg.), New developments in categorical data analysis for the social and behavioral sciences (S. 227–252). Mahwah: Lawrence Erlbaum.Google Scholar
  10. Foy, P., Galia, J., & Li, I. (2009). Scaling the data from the TIMSS 2007 mathematics and science assessments. In J. F. Olson, M. O. Martin, & I. V. Mullis (Hrsg.), TIMSS 2007 Technical Report (revised edition, pp. 225-280). Boston, MA: TIMSS & PIRLS International Study Center.Google Scholar
  11. Holland, P. W., & Wainer, H. (2012). Differential item functioning. New York: Routledge.Google Scholar
  12. Hsieh, P. P.-H., Acee, T., Chung, W.-H., Hsieh, Y.-P., Kim, H., Thomas, G. D., et al. (2005). Is educational intervention research on the decline? Journal of Educational Psychology, 97(4), 523–529.CrossRefGoogle Scholar
  13. Kultusministerkonferenz. (2015). Gesamtstrategie der Kultusministerkonferenz zum Bildungsmonitoring. http://www.kmk.org/fileadmin/veroeffentlichungen_beschluesse/2015/2015_06_11-Gesamtstrategie-Bildungsmonitoring.pdf. Zugegriffen am 08.12.2015.
  14. Lange, H. (2002). PISA: Und was nun? Zeitschrift für Erziehungswissenschaft, 5, 455–471.CrossRefGoogle Scholar
  15. Langeheine, R., & Rost, J. (2013). Latent trait and latent class models. New York: Plenum.Google Scholar
  16. Liu, W., Kuramoto, S. J., & Stuart, E. A. (2013). An introduction to sensitivity analysis for unobserved confounding in nonexperimental prevention research. Prevention Science, 14, 570–580.CrossRefGoogle Scholar
  17. Lord, F. M., & Novick, M. R. (1968). Statistical theories of mental test scores. Reading: Addison-Welsley.Google Scholar
  18. Lüdtke, O., Robitzsch, A., Trautwein, U., & Köller, O. (2007). Umgang mit fehlenden Werten in der psychologischen Forschung. Psychologische Rundschau, 58(2), 103–117.CrossRefGoogle Scholar
  19. Marsh, H. W., Lüdtke, O., Nagengast, B., Trautwein, U., Morin, A. J. S., Abduljabbar, A. S., et al. (2012). Classroom climate and contextual effects: Conceptual and methodological issues in the evaluation of group-level effects. Educational Psychologist, 47, 106–124.CrossRefGoogle Scholar
  20. Masters, G. N. (1982). A Rasch model for partial credit scoring. Psychometrika, 47, 149–174.CrossRefGoogle Scholar
  21. Murray, D. M. (2001). Statistical models appropriate for designs often used in group-randomized trials. Statistics in Medicine, 20, 1373–1385.CrossRefGoogle Scholar
  22. OECD. (2007). PISA 2006. Science competencie’s for tomorrow’s world – Volume 1: analysis. Paris: OECD.Google Scholar
  23. OECD. (2014). PISA 2012. Technical report. Paris: OECD.Google Scholar
  24. Plewis, I., & Hurry, J. (1998). A multilevel perspective on the design and analysis of intervention studies. Educational Research and Evaluation, 4, 13–26.CrossRefGoogle Scholar
  25. Rasch, G. (1960). Probalistic models for some intelligence and attainment tests. Danish Institute for Educational Research (reprinted 1980 by University of Chicago Press: Chicago).Google Scholar
  26. Rasch, G. (1961). On general laws and the meaning of measurement in psychology. Paper presented at the proceedings of the fourth Berkeley symposium on mathematical statistics and probability.Google Scholar
  27. Raudenbush, S. W., Martinez, A., & Spybrook, J. (2007). Strategies for improving precision in group-randomized experiments. Educational Evaluation and Policy Analysis, 29, 5–29.CrossRefGoogle Scholar
  28. Reinhart, A. L., Haring, S. H., Levin, J. R., Patall, E. A., & Robinson, D. H. (2013). Models of not-so-good behavior: Yet another way to squeeze causality and recommendations for practice out of correlational data. Journal of Educational Psychology, 105(1), 241.CrossRefGoogle Scholar
  29. Rosenbaum, P. R. (2002). Observational studies. New York: Springer.CrossRefGoogle Scholar
  30. Rosenbaum, P. R., & Rubin, D. B. (1983). The central role of the propensity score in observational studies for causal effects. Biometrika, 70, 41–55.CrossRefGoogle Scholar
  31. Roßbach, G., & Maurice, J. v. (im Druck). Das Nationale Bildungspanel als wertvolle Ressource für die Bildungsforschung. In R. Tippelt & B. Schmidt-Hertha (Hrsg.), Handbuch Bildungsforschung (4. Aufl.). Wiesbaden: VS Verlag für Sozialwissenschaften.Google Scholar
  32. Rubin, D. B. (1974). Estimating causal effects of treatments in randomized and nonrandomized studies. Journal of Educational Psychology, 66(5), 688.CrossRefGoogle Scholar
  33. Rubin, D. B. (1977). Assignment to treatment group on the basis of a covariate. Journal of Educational Statistics, 2, 1–26.CrossRefGoogle Scholar
  34. Rubin, D. B. (2005). Causal inference using potential outcomes. Journal of the American Statistical Association, 100(469).Google Scholar
  35. Sälzer, C., Reiss, K., Schiepe-Tiska, A., Prenzel, M., & Heinze, A. (2013). Zwischen Grundlagenwissen und Anwendungsbezug: Mathematische Kompetenz im internationalen Vergleich. In M. Prenzel, C. Sälzer, E. Klieme & O. Köller (Hrsg.), PISA 2012: Fortschritte und Herausforderungen in Deutschland (S. 47–97). Münster: Waxmann.Google Scholar
  36. Shadish, W. R., Cook, T. D., & Campbell, D. T. (2002). Experimental and quasi-experimental designs for generalized causal inference. Boston: Houghton Mifflin.Google Scholar
  37. Snijders, T. A. B., & Bosker, R. J. (2011). Multilevel analysis: An introduction to basic and advanced multilevel modeling (2. Aufl.). Thousand Oaks: Sage.Google Scholar
  38. Steyer, R. (2001). Classical test theory. In C. Ragin & T. Cook (Hrsg.), International encyclopedia of the social and behavioural sciences. Logic of inquiry and research design (S. 481–520). Oxford: Oxford University Press.Google Scholar
  39. Stuart, E. (2010). Matching methods for causal inference: A review and a look forward. Statistical Science, 25, 1–21.CrossRefGoogle Scholar
  40. von Davier, M., & Rost, J. (2007). Mixture distribution item response models. In C. R. Rao & S. Sinharay (Hrsg.), Handbook of statistics: Psychometrics (Bd. 26, S. 643–661). Amsterdam: Elsevier.CrossRefGoogle Scholar
  41. von Davier, M., Gonzalez, E., & Mislevy, R. (2009). What are plausible values and why are they useful? IERI Monograph Series, 2, 9–36.Google Scholar
  42. Wagner, W., Rose, N., Dicke, A.-L., Neumann, M., & Trautwein, U. (2014). Alle alles lehren–chulleistungen in Englisch, Mathematik und den Naturwissenschaften vor und nach der Neuordnung der gymnasialen Oberstufe in Sachsen. Zeitschrift für Erziehungswissenschaft, 17, 345–369.Google Scholar
  43. What Works Clearinghouse. (2014). Procedures and standards handbook. Version 3.0. http://ies.ed.gov/ncee/wwc/pdf/reference_resources/wwc_procedures_v3_0_standards_handbook.pdf. Zugegriffen am 08.12.2015.
  44. Winship, C., & Morgan, S. L. (1999). The estimation of causal effects from observational data. Annual Review of Sociology, 25, 659–706.CrossRefGoogle Scholar

Copyright information

© Springer Fachmedien Wiesbaden GmbH 2018

Authors and Affiliations

  1. 1.Hector-Institut für Empirische BildungsforschungEberhard Karls Universität TübingenTübingenDeutschland

Personalised recommendations