Advertisement

Einflüsse unterschiedlicher Formen der Verbalisierung von Antwortskalen auf das Antwortverhalten von Befragungspersonen

  • Antje RosebrockEmail author
  • Stephan Schlosser
  • Jan Karem Höhne
  • Steffen M. Kühnel
Chapter
Part of the Schriftenreihe der ASI - Arbeitsgemeinschaft Sozialwissenschaftlicher Institute book series (SASI)

Zusammenfassung

Antwortskalen sind ein zentraler Bestandteil standardisierter Fragebögen. In der Surveyforschung wird häufig zwischen endpunktbenannten und vollverbalisierten Antwortskalen unterschieden. Bei ersteren werden nur die beiden Pole, bei letzteren alle Kategorien einer Antwortskala verbalisiert. Bei vollverbalisierten Skalen ist eine häufige Empfehlung, dass die Antwortkategorien äquidistant sind, was bedeutet, dass die Antwortkategorien den Wertebereich der Skala gleichmäßig abdecken. In diesem Beitrag vergleichen wir vollverbalisierte Skalen mit nicht-äquidistant erscheinenden Antwortkategorien, vollverbalisierte Skalen mit äquidistant erscheinenden Antwortkategorien und endpunktbenannte Skalen. Wir unterscheiden dabei zwischen der Beobachtungsebene, d.h. den von den Befragten ausgewählten Antwortkategorien, und der latenten Ebene, den nicht direkt beobachteten Positionen der Befragten auf der latenten kontinuierlich-metrischen Dimension. Die Ergebnisse zeigen, dass die unterschiedlichen Antwortskalen zu Unterschieden im empirischen Antwortverhalten führen.

Diese Unterschiede sind nicht nur Folge einer unterschiedlichen Beziehung zwischen latenter Dimension und empirischer Antwortskala, sondern auch Folge unterschiedlicher Verteilungen auf der latenten Dimension.

Schlüsselwörter

Antwortverhalten Äquidistanz Balancierung Onlinebefragung und Ratingskalen 

Preview

Unable to display preview. Download preview PDF.

Unable to display preview. Download preview PDF.

Literatur

  1. Coromina, L., & Coenders, G. (2006). Reliability and validity of egocentered network data collected via web. Social Networks 28(3), 209–231.CrossRefGoogle Scholar
  2. DeCastellarnau, A. (2017). A classification of response scale characteristics that affect data quality: A literature review. Quality & Quantity.  https://doi.org/10.1007/s11135-017-0533-4CrossRefGoogle Scholar
  3. Dickinson, T. L., & Zellinger, P. M. (1980). A comparison of the behaviorally anchored rating and mixed standard scale formats. Journal of Applied Psychology, 65(2), 147-154.CrossRefGoogle Scholar
  4. French-Lazovik, G., & Gibson, C. L. (1984). Effects of verbally labeled anchor points on the distributional parameters of rating measures. Applied Psychological Measurement 8, 49–57.CrossRefGoogle Scholar
  5. Friedman, H., Wilamowsky, Y., & Friedman, L. (1981). A comparison of balanced and unbalanced rating scales. The Mid-Atlantic Journal of Business 19, 1–7.Google Scholar
  6. Geiser, C., Eid, M. (2010). Item-Response-Theorie. In C. Wolf, & H. Best (Hrsg.): Handbuch der sozialwissenschaftlichen Datenanalyse, (S.311-332). Wiesbaden: VS Verlag für Sozialwissenschaften.CrossRefGoogle Scholar
  7. Höhne, J. K., & Krebs, D. (2018). Scale direction effects in agree/disagree and item-specific questions: A comparison of question formats. International Journal of Social Research Methodology, 21(1), 91–103.CrossRefGoogle Scholar
  8. Höhne, J. K., & Lenzner, T. (2018). New insights on the cognitive processing of agree/disagree and item-specific questions. Journal of Survey Statistics and Methodology, 6, 401-417.CrossRefGoogle Scholar
  9. Höhne, J. K., Schlosser, S., & Krebs, D. (2017). Investigating cognitive effort and response quality of question formats in web surveys using paradata. Field Methods, 29(4), 365–382.CrossRefGoogle Scholar
  10. Johnson, T., Kulesa, P., Cho, Y. I., & Shavitt, S. (2005). The relation between culture and response styles. Journal of Cross-Cultural Psychology 36, 264–277.CrossRefGoogle Scholar
  11. Jöreskog, K. G. (1994). Structural equation modeling with ordinal variables. Lecture Notes-Monograph Series 24, 297-310.Google Scholar
  12. Kamoen, N., Holleman, B., Mak, P., Sanders, T., & van den Bergh, H. (2011). Agree or disagree? Cognitive processes in answering contrastive survey questions. Discourse Processes 48, 355–385.CrossRefGoogle Scholar
  13. Klockars, A. J., & Yamagishi, M. (1988). The influence of labels and positions in rating scales. Journal of Educational Measurement 25, 85–96.CrossRefGoogle Scholar
  14. Krosnick, J. A., & Berent, M. K. (1993). Comparisons of party identification and policy preferences: The impact of survey question format. American Journal of Political Science 37, 941-946.CrossRefGoogle Scholar
  15. Krosnick, J. A., & Fabrigar, L. R. (1997). Designing rating scales for effective measurement in surveys. In L. Lyberg, P. Biemer, M. Collins, E. de Leeuw, C. Dippo, N. Schwarz, & D. Trewin (Hrsg.), Survey measurement and process quality (S. 141–164). Hoboken: John Wiley & Sons.Google Scholar
  16. Krosnick, J. A., & Presser, S. (2010). Question and questionnaire design. In J. D. Wright & P. V. Marsden (Hrsg.), Handbook of survey research (S. 263–313). San Diego: Elsevier.Google Scholar
  17. Kühnel, S. M. (1993). Lassen sich ordinale Daten mit linearen Strukturgleichungsmodellen analysieren? ZA-Information / Zentralarchiv für Empirische Sozialforschung, 33, 29-51.Google Scholar
  18. Lantz, B. (2013). Equidistance of Likert-type scales and validation of inferential methods using experiments and simulations. The Electronic Journal of Business Research Methods 11, 16–28.Google Scholar
  19. Liao, P.-S. (2014). More happy or less unhappy? Comparison of the balanced and unbalanced designs for the response scale of general happiness. Journal of Happiness Studies 15, 1407–1423.CrossRefGoogle Scholar
  20. Menold, N. (2017). Rating-scale labeling in online surveys: An experimental comparison of verbal and numeric rating scales with respect to measurement quality and respondents’ cognitive processes. Sociological Methods & Research.  https://doi.org/10.1177/0049124117729694
  21. Menold, N., & Bogner, K. (2015). Gestaltung von Ratingskalen in Fragebögen (SDM - Survey Guidelines). Mannheim: GESIS – Leibniz-Institut für Sozialwissenschaften.  https://doi.org/10.15465/sdm-sg_015
  22. Menold, N., Kaczmirek, L., Lenzner, T., & Neusar, A. (2014). How do respondents attend to verbal labels in rating scales? Field Methods 26, 21–39.CrossRefGoogle Scholar
  23. Menold, N., & Kemper, C. (2015). The impact of frequency rating scale formats on the measurement of latent variables in web surveys - an experimental investigation using a measure of affectivity as an example. Psihologija 48, 431–449.CrossRefGoogle Scholar
  24. Menold, N., & Tausch, A. (2016). Measurement of latent variables with different rating scales. Sociological Methods & Research 45, 678–699.CrossRefGoogle Scholar
  25. Millsap, R. E., & Yun-Tein, J. (2004). Assessing factorial invariance in ordered-categorical measures. Multivariate Behavioral Research 39, 479–515.CrossRefGoogle Scholar
  26. Moors, G., Kieruj, N. D., & Vermunt, J. K. (2014). The effect of labeling and numbering of response scales on the likelihood of response bias. Sociological Methodology 44, 369–399.CrossRefGoogle Scholar
  27. Moosbrugger, H. (2012). Klassische Testtheorie (KTT). In: H. Moosbrugger & A. Kelava (Hrsg.), Testtheorie und Fragebogenkonstruktion (S. 103–117). Berlin, Heidelberg: Springer.Google Scholar
  28. Mullahy, J. (1990). Weighted least squares estimation of the linear probability model, revisited. Economics Letters 32, 35–41.CrossRefGoogle Scholar
  29. Muthén, B. O. (1984). A general structural equation model with dichotomous, ordered categorical, and continuous latent variable indicators. Psychometrika 49, 115–132.CrossRefGoogle Scholar
  30. Muthén, L. K, & Muthén, B. O. (1998-2012). Mplus User’s Guide. Siebte Auflage. Los Angeles, Ca: Muthén & Muthén.Google Scholar
  31. Ostrom, T. M., & Gannon, K. M. (1996). Exemplar generation: Assessing how respondents give meaning to rating scales. In N. Schwarz & S. Sudman (Hrsg.), Answering questions: Methodology for determining cognitive and communicative processes in survey research (S. 293–318). San Francisco: Jossey-Bass.Google Scholar
  32. Parducci, A. (1983). Category ratings and the relational character of judgment. In H.-G. Geissler, H.F.J.M. Buffort, E.J. Leeuwenberg, & V. Sarris (Hrsg.), Advances in Psychology. Modern Issues in Perception (S. 262–282). Amsterdam: North-Holland Publishing Company.CrossRefGoogle Scholar
  33. Rohrmann, B. (1978). Empirische Studien zur Entwicklung von Antwortskalen für die sozialwissenschaftliche Forschung. Zeitschrift für Sozialpsychologie 9, 222–245.Google Scholar
  34. Saris, W. E., & Gallhofer, I. N. (2007). Design, evaluation, and analysis of questionnaires for survey research. Hoboken: John Wiley & Sons.CrossRefGoogle Scholar
  35. Sudman, S., Bradburn, N. M., & Schwarz, N. (1996). Thinking about answers. The application of cognitive processes to survey methodology. San Francisco: Jossey-Bass Publishers.Google Scholar
  36. Tourangeau, R., Couper, M. P., & Conrad, F. (2004). Spacing, position, and order: Interpretive heuristics for visual features of survey questions. Public Opinion Quarterly 68, 368-393.CrossRefGoogle Scholar
  37. van de Vijver, F. J. R. (2003). Bias and equivalence: cross-cultural perspectives. In J. A. Harkness, F. J. R. van de Vijver, & P. Ph. Mohler (Hrsg.) Cross-cultural survey methods, S.143-156. Hoboken: Wiley.Google Scholar
  38. Weng, L.-J. (2004). Impact of the number of response categories and anchor labels on coefficient alpha and test-retest reliability. Educational and Psychological Measurement 64, 956–972.CrossRefGoogle Scholar
  39. Zaller, J. R. (Ed.) 1988. Vague questions vs. vague minds: Experimental attempts to reduce measurement error. Paper presented at the annual meeting of the American Political Science Association, Washington, D.C.Google Scholar

Copyright information

© Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2019

Authors and Affiliations

  • Antje Rosebrock
    • 1
    Email author
  • Stephan Schlosser
    • 2
  • Jan Karem Höhne
    • 1
  • Steffen M. Kühnel
    • 2
  1. 1.MannheimDeutschland
  2. 2.GöttingenDeutschland

Personalised recommendations