Advertisement

Viel Luft nach oben. Eine kritische Reflexion zum Stellenwert der Methoden in der Kommunikationswissenschaft

  • Jörg MatthesEmail author
Chapter

Zusammenfassung

Die Geschichte der kommunikationswissenschaftlichen Methoden ist noch keine lange. Die Fachgruppe Methoden der Deutschen Gesellschaft für Publizistik- und Kommunikationswissenschaft (DGPuK) wurde erst im Jahr 1998 auf der DGPuK-Jahrestagung in Mainz gegründet. Werner Wirth war ihr Mitbegründer und erster Sprecher.

Preview

Unable to display preview. Download preview PDF.

Unable to display preview. Download preview PDF.

Literatur

  1. Bentler, P. M. (2007). On tests and indices for evaluating structural models. Personality and Individual Differences, 42, 825-829.Google Scholar
  2. Carpenter, S. (2018). Ten steps in scale development and reporting: A guide for researchers. Communication Methods and Measures, 12, 25-44.Google Scholar
  3. Cortina, J. M. (1993). What is coefficient alpha?: An examination of theory and applications. Journal of Applied Psychology, 78, 98-104.Google Scholar
  4. Fabrigar, L. R., Wegener, D. T., MacCallum, R. C. & Strahan, E. J. (1999). Evaluating the use of exploratory factor analysis in psychological research. Psychological Methods, 4, 272-299.Google Scholar
  5. Hayes, A. F. (2013). Introduction to mediation, moderation, and conditional process analysis. New York, NY: Guilford Press.Google Scholar
  6. Krotz, F., Keppler, A., Meyen, M., Neumann-Braun, K. & Wagner, U. (2012). Stellungnahme zum Beitrag „Zur Methodenausbildung in kommunikationswissenschaftlichen Bachelor- und Masterstudiengängen“. Publizistik, 57, 95-102.Google Scholar
  7. Lepa, S. (2017). Statistical significance (testing). International Encyclopedia of Communication Research Methods, 1-16.Google Scholar
  8. Lovejoy, J., Watson, B. R., Lacy, S. & Riffe, D. (2014). Assessing the reporting of reliability in published content analyses: 1985-2010. Communication Methods and Measures, 8, 207–221.Google Scholar
  9. MacCallum, R. C., Zhang, S., Preacher, K. J. & Rucker, D. D. (2002). On the practice of dichotomization of quantitative variables. Psychological Methods, 7, 19-40.Google Scholar
  10. Matthes, J., Kuhlmann, C., Gehrau, V., Jandura, O., Möhring, W., Vogelgesang, J. & Wünsch, C. (2011). Zur Methodenausbildung in kommunikationswissenschaftlichen Bachelor- und Masterstudiengängen. Empfehlungen einer Kommission im Auftrag der Fachgruppe Methoden der Deutschen Gesellschaft für Publizistik- und Kommunikationswissenschaft. Publizistik, 56, 461-481.Google Scholar
  11. Matthes, J., Kuhlmann, C., Gehrau, V., Jandura, O., Möhring, W., Vogelgesang, J. & Wünsch, C. (2012). Schwerpunkte ermöglichen – eine Antwort auf die Stellungnahme von Krotz, Keppler, Meyen, Neumann-Braun und Wagner. Publizistik, 57, 225-227.Google Scholar
  12. Matthes, J., Marquart, F., Naderer, B., Arendt, F., Schmuck, D. & Adam, K. (2015). Questionable research practices in experimental communication research: A systematic analysis from 1980 to 2013. Communication Methods and Measures, 9, 193-207.Google Scholar
  13. Matthes, J., Niederdeppe, J. & Shen, F. (2016). Reflections on the need for a journal devoted to communication research methodologies: Ten years later. Communication Methods and Measures, 10, 1-3.Google Scholar
  14. Naab, T., Schlütz, D., Möhring, W. & Matthes, J. (Hrsg.). (2013). Standardisierung und Flexibilisierung als Herausforderungen der kommunikations- und publizistikwissenschaftlichen Forschung. Köln: Halem.Google Scholar
  15. Roskos-Ewoldsen, D., Aakhus, M., Hayes, A., Heider, D. & Levine, T. (2007). It’s about time: The need for a journal devoted to communication research methodologies. Communication Methods and Measures, 1, 1–5.Google Scholar
  16. Schemer, C., Kühne, R. & Matthes, J. (2014). The role of measurement invariance in comparative communication research. In M. J. Canel & K. Voltmer (Hrsg.), Comparing political communication across time and space. New studies in an emerging field (S. 31-46). Basingstoke: Palgrave Macmillan.Google Scholar
  17. Schemer, C., Matthes, J. & Wirth, W. (2008). Toward improving validity and reliability of information processing measures in surveys. Communication Methods and Measures, 2, 1-33.Google Scholar
  18. Schemer, C., Matthes, J. & Wirth, W. (2009). Applying latent growth models to the analysis of media effects. Journal of Media Psychology, 21, 85-89.Google Scholar
  19. Sommer, K., Wettstein, M., Wirth, W. & Matthes, J. (Hrsg.). (2014). Automatisierung in der Inhaltsanalyse. Köln: Halem.Google Scholar
  20. Tourangeau, R., Rips, L. J. & Rasinski, K. (Hrsg.). (2000). The psychology of survey response. New York, NY, US: Cambridge University Press.Google Scholar
  21. Van Atteveldt, W. & Peng, T. Q. (2018). When communication meets computation: Opportunities, challenges, and pitfalls in computational communication science. Communication Methods and Measures, 12, 81-92.Google Scholar
  22. Vermeulen, I., Beukeboom, C. J., Batenburg, A., Avramiea, A., Stoyanov, D., van de Velde, B. & Oegema, D. (2015). Blinded by the light: How a focus on statistical “significance” may cause p-value misreporting and an excess of p-values just below .05 in Communication Science. Communication Methods and Measures, 9, 253–279.Google Scholar
  23. Vermeulen, I. E. & Hartmann, T. (2015). Questionable research and publication practices in communication science. Communication Methods and Measures, 9, 189–192.Google Scholar
  24. Vogelgesang, J. (2012). Kommunikationswissenschaft studieren. Wiesbaden: VS Verlag.Google Scholar
  25. Weber, P. & Kühne, R. (2013). Zähldaten und ihre Analyse in der kommunikationswissenschaftlichen Forschung. In T. K. Naab, D. Schlütz, W. Möhring & J. Matthes (Hrsg.), Standardisierung und Flexibilisierung als Herausforderungen der kommunikations- und publizistikwissenschaftlichen Forschung (S. 285-312). Köln: Halem.Google Scholar
  26. Wirth, W. (2000). Methodenausbildung, Methodenstreits, Standards. Einige Gedanken zum Status der Methoden in der Kommunikations- und Medienwissenschaft. Aviso, 26, 6-7.Google Scholar
  27. Wirth, W. (2003). Zugpferd für die Zukunft. Chancen einer kanonisierten Methodenausbildung. Aviso, 33, 11-13.Google Scholar
  28. Wirth, W. & Lauf, E. (Hrsg.). (2001). Inhaltsanalyse: Perspektiven, Probleme, Potentiale. Köln: Halem.Google Scholar
  29. Wirth, W. & Matthes, J. (2008). Zur Quantifizierung von Konstruktvalidität: Problemaufriss und Entwicklung eines Validitätsindexes. In J. Matthes, W. Wirth, A. Fahr & G. Daschmann (Hrsg.), Die Brücke zwischen Theorie und Empirie: Operationalisierung, Messung und Validierung in der Kommunikationswissenschaft (S. 14-27). Köln: Halem.Google Scholar
  30. Wirth, W. & Scherer, H. (2013). Standardisierung in der empirischen Forschung. In T. Naab, D. Schlütz, W. Möhring & J. Matthes (Hrsg.), Standardisierung und Flexibilisierung als Herausforderungen der kommunikations- und publizistikwissenschaftlichen Forschung (S. 18-29). Köln: Halem.Google Scholar
  31. Wirth, W., Sommer, K., Wettstein, M. & Matthes, J. (Hrsg.). (2015). Qualitätskriterien in der Inhaltsanalyse. Köln: Halem.Google Scholar
  32. Wirth, W., Wettstein, M., Kühne, R. & Reichel, K. (2015). Theorie und Empirie des Codierens: Personelle und situative Einflussfaktoren auf Qualität und Quantität des Codierens bei der Inhaltsanalyse. In W. Wirth, K. Sommer, M. Wettstein & J. Matthes (Hrsg.), Qualitätskriterien in der Inhaltsanalyse (S. 96-118). Köln: Halem.Google Scholar
  33. Wirth, W., Wettstein, M., Reichel, K. & Kühne, R. (2013). Äquivalenzprüfung als Standard in international vergleichenden Inhaltsanalysen. In T. Naab, D. Schlütz, W. Möhring & J. Matthes (Hrsg.), Standardisierung und Flexibilisierung als Herausforderungen der kommunikations- und publizistikwissenschaftlichen Forschung (S. 258-284). Köln: Halem.Google Scholar

Copyright information

© Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2019

Authors and Affiliations

  1. 1.Universität WienWienÖsterreich

Personalised recommendations