Advertisement

Antwortvalidität in Survey-Interviews: Meinungsäußerungen zu fiktiven Dingen

  • Felix WolterEmail author
  • Justus Junkermann
Chapter
Part of the Schriftenreihe der ASI - Arbeitsgemeinschaft Sozialwissenschaftlicher Institute book series (SASI)

Zusammenfassung

Der Beitrag untersucht Ausmaß und Einflussfaktoren der Äußerung von Pseudo-Opinions. Damit gemeint ist das vielfach dokumentierte Phänomen, wonach Befragte sich auch zu fiktiven, frei erfundenen Fragegegenständen äußern, obwohl sie eigentlich keine Meinung dazu haben sollten. Die Relevanz ergibt sich zum einen aus der Vermutung, dass manche Befragte auch real existierende Frageobjekte nicht kennen, aber dennoch eine Meinung dazu äußern. Die Ergebnisse entsprechender Umfragen wären damit verzerrt. Zum anderen erlaubt die Untersuchung von Pseudo-Opinions, den Prozess sozial erwünschten Antwortverhaltens im Hinblick auf Ausmaß und Determinanten eines Response Bias zu studieren. Neben soziodemographischen Einflussfaktoren und Maßen für Anreize durch soziale Erwünschtheit wird insbesondere die Antwortreaktionszeit als Proxy für den kognitiven Elaborationsgrad auf ihren Einfluss untersucht. Dies geschieht auf Basis theoretischer Überlegungen zum Befragtenverhalten, u.a. aus der Frame-Selektionstheorie. In der in Mainz durchgeführten CATI-Studie (N = 499) wurde nach der Meinung der Befragten zu drei fiktiven Mainzer Sehenswürdigkeiten gefragt. Es zeigt sich, dass das Ausmaß an Response Bias durch Pseudo-Opinions beträchtlich ist; bis zu 69% der Befragten geben eine inhaltliche Meinung zu den fingierten Frageobjekten an. Zudem variiert die Neigung zu verzerrendem Antwortverhalten nach einfachen soziodemographischen Merkmalen wie Alter, Geschlecht und Bildung. Ein Effekt der Antwortreaktionszeit ist nur für eines der Items feststellbar. Hier wirkt die Latenz negativ, d.h. längeres Nachdenken beim Beantworten der Frage führt zu weniger Pseudo-Opinions und damit zu weniger verzerrten Daten.

Schlüsselwörter

Survey-Methodologie Validität Befragtenverhalten Pseudo-Opinions Response Bias Antwortlatenz 

Preview

Unable to display preview. Download preview PDF.

Unable to display preview. Download preview PDF.

Literatur

  1. AAPOR, A.A.f.P.O.R.(2016).Standard Definitions: Final Dispositions of Case Codes and Outcome Rates for Surveys (7 ed.): AAPOR.Google Scholar
  2. Bishop, G.F.(2005).The Illusion of Public Opinion. Fact and Artifact in American Public Opinion Polls. Lanham: Rowman & Littlefield.Google Scholar
  3. Bishop, G. F., Oldendick, R. W., Tuchfarber, A. J., & Bennett, S. E. (1980). Pseudo-Opinions on Public Affairs. Public Opinion Quarterly, 44(2), 198–209.CrossRefGoogle Scholar
  4. Converse, P. (1964). The Nature of Belief Systems in Mass Publics. In D. E. Apter (Hrsg.), Ideology and Discontent (S. 206–261). New York: Free Press.Google Scholar
  5. Converse, P. (1970). Attitudes and Nonattitudes: Continuation of a Dialogue. In E. R. Tufte (Hrsg.), The Quantitative Analysis of Social Problems (S. 168–189). Reading, Mass.: Addison-Wesley.Google Scholar
  6. Crowne, D. P., & Marlowe, D. (1960). A New Scale of Social Desirability Independent of Psychopathology. Journal of Consulting Psychology, 24, 349–354.CrossRefGoogle Scholar
  7. De Leeuw, J., & Hox, J. J. (2008). Self-administered Questionnaires: Mail Surveys and other Applications. In E. D. De Leeuw, J. J. Hox, & D. A. Dillman (Hrsg.), International Handbook of Survey Methodology (S. 239–263). New York: Erlbaum.Google Scholar
  8. Dingelstedt, A. (2015). Die Wirkung von Incentives auf die Antwortqualität in Umfragen. Göttingen: Dissertation, Georg-August-Universität Göttingen.Google Scholar
  9. Esser, H. (2001). Soziologie. Spezielle Grundlagen. Band 6: Sinn und Kultur. Frankfurt am Main: Campus.Google Scholar
  10. Esser, H. (2010). Das Modell der Frame-Selektion. Eine allgemeine Handlungstheorie für die Sozialwissenschaften? In G. Albert & S. Sigmund (Hrsg.), Soziologische Theorie kontrovers (Vol., Sonderheft 50, S. 45–62). Wiesbaden: VS Verlag für Sozialwissenschaften.Google Scholar
  11. Franzen, A., & Mader, S. (2017). Do Phantom Questions Measure Social Desirability? University of Bern: Unpublished Manuscript.Google Scholar
  12. Gabler, S., & Häder, S. (1997). Überlegungen zu einem Stichprobendesign für Telefonumfragen in Deutschland. ZUMA-Nachrichten, 41, 7–18.Google Scholar
  13. Gawronski, B., & Creighton, L. A. (2013). Dual Process Theories. In D. E. Carlston (Hrsg.), The Oxford Handbook of Social Cognition (S. 282–312). New York: Oxford University Press.Google Scholar
  14. Groves, R. M., Fowler, F. J., Couper, M. P., Lepkowski, J. M., Singer, E., & Tourangeau, R. (2004). Survey Methodology. Hoboken: Wiley.Google Scholar
  15. Holtgraves, T. (2004). Social Desirability and Self-Reports: Testing Models of Socially Desirable Responding. Personality and Social Psychology Bulletin, 30(2), 161–172.CrossRefGoogle Scholar
  16. Johnson, T. P., Fendrich, M., & Mackesy-Amiti, M. E. (2012). An Evalutation of the Validity of the Crowne-Marlowe Need for Approval Scale. Quality & Quantity, 46(6), 1883–1896.CrossRefGoogle Scholar
  17. Kroneberg, C. (2005). Die Definition der Situation und die variable Rationalität der Akteure. Ein allgemeines Modell des Handelns. Zeitschrift für Soziologie, 34(5), 344–363.Google Scholar
  18. Krumpal, I. (2013). Determinants of Social Desirability Bias in Sensitive Surveys: A Literature Review. Quality & Quantity, 47(4), 2025–2047.CrossRefGoogle Scholar
  19. Mayerl, J., & Urban, D. (2008). Antwortreaktionszeiten in Survey-Analysen. Messung, Auswertung und Anwendungen. Wiesbaden: VS Verlag für Sozialwissenschaften.Google Scholar
  20. McCrae, R. R., & Costa, P. T. (1983). Social Desirability Scales: More Substance Than Style. Journal of Consulting and Clinical Psychology, 51(6), 882–888.CrossRefGoogle Scholar
  21. Opp, K. -D. (2010). Frame-Selektion, Normen und Rationalität. Stärken und Schwächen des Modells der Frame-Selektion. In G. Albert & S. Sigmund (Hrsg.), Soziologische Theorie kontrovers (Vol., Sonderheft 50, S. 63–78). Wiesbaden: VS Verlag für Sozialwissenschaften.Google Scholar
  22. Paulhus, D. L. (2011). Overclaiming on Personality Questionnaires. In M. Ziegler, C. MacCann, & R. Roberts (Hrsg.), New Perspectives on Faking in Personality Assessment (S. 151–164). Oxford: Oxford University Press.CrossRefGoogle Scholar
  23. Phillips, D. L., & Clancy, K. J. (1972). Some Effects of „Social Desirability“ in Survey Studies. American Journal of Sociology, 77(5), 921–940.CrossRefGoogle Scholar
  24. Preisendörfer, P., & Wolter, F. (2014). Who Is Telling the Truth? A Validation Study on Determinants of Response Behavior in Surveys. Public Opinion Quarterly, 78(1), 126–146.CrossRefGoogle Scholar
  25. Reuband, K. -H. (2000). „Pseudo-Opinions“ in Bevölkerungsumfagen. Wie die Bürger fiktive Politiker beurteilen. ZA-Information, 46, 26–38.Google Scholar
  26. Schnell, R. (2012). Survey-Interviews. Methoden standardisierter Befragungen. Wiesbaden: VS Verlag für Sozialwissenschaften.CrossRefGoogle Scholar
  27. Schuman, H., & Presser, S. (1980). Public Opinion and Public Ignorance: The Fine Line Between Attitudes and Nonattitudes. American Journal of Sociology, 85(5), 1214–1225.CrossRefGoogle Scholar
  28. Stocké, V. (2004). Entstehungsbedingungen von Antwortverzerrungen durch soziale Erwünschtheit. Ein Vergleich der Rational-Choice Theorie und des Modells der Frame-Selektion. Zeitschrift für Soziologie, 33(4), 303–320.Google Scholar
  29. Stocké, V. (2007). Deutsche Kurzskala zur Erfassung des Bedürfnisses nach sozialer Anerkennung. In A. Glöckner-Rist (Hrsg.), ZUMA-Informationssystem. Elektronisches Handbuch sozialwissenschaftlicher Erhebungsinstrumente. ZIS Version 11. 00. Bonn: GESIS.Google Scholar
  30. Stocké, V., & Hunkler, C. (2004). Die angemessene Erfassung der Stärke und Richtung von Anreizen durch soziale Erwünschtheit. ZA-Information, 54, 53–88.Google Scholar
  31. Stocké, V., & Hunkler, C. (2007). Measures of Desirability Beliefs and Their Validity as Indicators for Socially Desirable Responding. Field Methods, 19(3), 313–336.CrossRefGoogle Scholar
  32. Sturgis, P., & Smith, P. (2010). Fictitious Issues Revisited: Political Interest, Knowledge and the Generation of Nonattitudes. Political Studies, 58(1), 66–84.CrossRefGoogle Scholar
  33. Sudman, S., Bradburn, N. M., & Schwarz, N. (1996). Thinking About Answers. The Application of Cognitive Processes to Survey Methodology. San Francisco: Jossey-Bass.Google Scholar
  34. Tourangeau, R., & Yan, T. (2007). Sensitive Questions in Surveys. Psychological Bulletin, 133(5), 859–883.CrossRefGoogle Scholar
  35. Wolter, F. (2012). Heikle Fragen in Interviews. Eine Validierung der Randomized Response-Technik. Wiesbaden: Springer VS.CrossRefGoogle Scholar
  36. Wolter, F., & Preisendörfer, P. (2013). Asking Sensitive Questions: An Evaluation of the Randomized Response Technique versus Direct Questioning Using Individual Validation Data. Sociological Methods and Research, 42(3), 321–353.CrossRefGoogle Scholar

Copyright information

© Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2019

Authors and Affiliations

  1. 1.MainzDeutschland

Personalised recommendations