Advertisement

Soziale Passagen

, Volume 10, Issue 2, pp 245–262 | Cite as

Paradigmen sozial- und erziehungswissenschaftlicher Wirkungsforschung: Eine Analyse kausaltheoretischer Annahmen und ihrer Folgen für die Soziale Arbeit

  • Bernd DollingerEmail author
Forum
  • 104 Downloads

Zusammenfassung

Der Beitrag diskutiert grundlegende Möglichkeiten, Wirkungen sozialer Maßnahmen zu erforschen und kausaltheoretisch zu erschließen. Dazu werden drei Paradigmen der Wirkungsforschung unterschieden: die Evidenzbasierung, die realistische Evaluation und die performative Folgenforschung. Sie stehen mit distinkten Ontologien, Methodologien und Begriffen von Wirkungen in Verbindung. Da es sich um wissenschaftstheoretisch unterschiedliche Arten handelt, soziale Wirklichkeit zu bestimmen und zu repräsentieren, würde es wenig Sinn machen, von in sich ,besseren‘ oder ,schlechteren‘ Positionen zu sprechen. Allerdings ist zu fragen, welche Affinitäten oder Diskrepanzen sich zu Kernpunkten sozialpädagogischen Wissens und Handelns ergeben. Im Ergebnis wird dafür plädiert, Vorgaben evidenzbasierter Forschung in ihrem Anliegen, dekontextualisierte Formen sequentieller Kausalität zu bestimmen, in ihrer Relevanz für die sozialpädagogische Praxis zu hinterfragen (obwohl durch sie in der Forschung durchaus relevante Befunde generiert werden können). Aussagekräftiger für die Realisierung sozialer Maßnahmen sind demgegenüber Studien, die auf generative oder performative Kausalitäten abstellen, mithin realistische und performative Ansätze.

Schlüsselwörter

Wirkungsforschung Kausalität Evidenzbasierung Professionalität 

Paradigms of socio-scientific and educational evaluative research. An analysis of causal assumptions and their consequences for social work

Abstract

The contribution discusses basic options to research consequences of social work and to determine causalities. This implies the differentiation of three paradigmatic kinds of evaluative research: evidence-based research, realist evaluation and performative research on consequences, which are related to distinctive ontologies, methodologies and concepts of impacts. It would not make sense to determine generally ‘better’ or ‘worse’ options to conduct evaluative research because the three kinds exhibit epistemologically fundamentally different ways to identify and represent social reality. Yet their affinity or discrepancy to social work tenets is an important issue for analysis. As a result, evidence-based research and its endeavor to ascertain decontextualized forms of sequential causality has to be questioned in its relevance for social work practice (even though this kind of research has the potential to generate important insights on an academic level). As regards the implementation of social programs, studies focusing on generative or performative causality are more meaningful and informative.

Keywords

Evaluative Research Causality Evidence-Based Research Professionalism 

Literatur

  1. Albright, D. L., & Thyer, B. A. (2010). Die Anwendung des evidenzbasierten Praxismodells auf die Soziale Arbeit. In H.-U. Otto, A. Polutta & H. Ziegler (Hrsg.), What Works (S. 137–149). Opladen: Budrich.Google Scholar
  2. Albus, S., Micheel, H.-G., & Polutta, A. (2010). Empirie der Wirkungsorientierung. In H.-U. Otto, A. Polutta & H. Ziegler (Hrsg.), What Works (S. 231–244). Opladen: Budrich.Google Scholar
  3. Alise, M. A., & Teddlie, C. (2010). A continuation of the paradigm wars? Prevalence rates of methodological approaches across the social/behavioral sciences. Journal of Mixed Methods Research, 4, 103–126.Google Scholar
  4. Andrews, D. A., & Bonta, J. (2010). The psychology of criminal conduct (5. Aufl.). New Providence: LexisNexis.Google Scholar
  5. Archer, M., Bhaskar, R., Collier, A., Lawson, T., & Norrie, A. (Hrsg.). (1998). Critical realism. London: Routledge.Google Scholar
  6. Astbury, B. (2013). Some reflections on Pawson’s science of evaluation. Evaluation, 19, 383–401.Google Scholar
  7. Austin, J. L. (2002). Zur Theorie der Sprechakte. Zweite Vorlesung. In U. Wirth (Hrsg.), Performanz (S. 63–71). Frankfurt am Main: Suhrkamp. Erstveröffentlichung 1962.Google Scholar
  8. Ballucci, D. (2008). Risk in action. Social & Legal Studies, 17, 175–197.Google Scholar
  9. Bareis, E., & Cremer-Schäfer, H. (2013). Empirische Alltagsforschung als Kritik. In G. Graßhoff (Hrsg.), Adressaten, Nutzer, Agency (S. 139–159). Wiesbaden: Springer VS.Google Scholar
  10. Belina, B. (2008). Geographische Ideologieproduktion. ACME, 7, 510–537.Google Scholar
  11. Bellmann, J., & Müller, T. (2011). Evidenzbasierte Pädagogik – ein Déjà-vu? In J. Bellmann & T. Müller (Hrsg.), Wissen, was wirkt (S. 9–32). Wiesbaden: VS.Google Scholar
  12. Benson, D., & Hughes, J. (1991). Method: evidence and inference. In G. Button (Hrsg.), Ethnomethodology and the human sciences (S. 109–136). Cambridge: Cambridge University Press.Google Scholar
  13. Bertelsmann, H., Roters, D., & Bronner, D. (2007). Vom Nutzen der Nutzenbewertung. Zeitschrift für ärztliche Fortbildung und Qualität im Gesundheitswesen, 101, 455–462.Google Scholar
  14. Bhaskar, R. (2008). A realist theory of science. London: Verso. Erstveröffentlichung 1975Google Scholar
  15. Bhaskar, R., & Hartwig, M. (Hrsg.). (2016). Enlightened Common Sense. London: Taylor and Francis.Google Scholar
  16. Biesta, G. J. J. (2010). Why “what works” still won’t work. Studies in Philosophy and Education, 29, 491–503.Google Scholar
  17. Cartwright, N. (2006). Where is the theory in our “theories” of causality? The Journal of Philosophy, 103, 55–66.Google Scholar
  18. Case, S. (2007). Questioning the “evidence” of risk that underpins evidence-led youth justice interventions. Youth Justice, 7, 91–105.Google Scholar
  19. Case, S., & Haines, K. (2009). Understanding youth offending. Cullompton: Willan.Google Scholar
  20. Collier, A. (1994). Critical realism. London: Verso.Google Scholar
  21. Dahme, H.-J., & Wohlfahrt, N. (2010). Evidenzbasierte Soziale Arbeit und wettbewerblich gesteuerte Sozialwirtschaft. In H.-U. Otto, A. Polutta & H. Ziegler (Hrsg.), What Works (S. 203–216). Opladen: Budrich.Google Scholar
  22. Denzin, N. K. (2011). The politics of evidence. In N. K. Denzin & Y. S. Lincoln (Hrsg.), The Sage handbook of qualitative research (4. Aufl. S. 645–657). Thousand Oaks: SAGE.Google Scholar
  23. Dickinson, T., & Wright, R. (2017). The funny side of drug dealing. Criminology. https://doi.org/10.1111/1745-9125.12148 Google Scholar
  24. Dollinger, B. (2017). Subjects in criminality discourse. Punishment & Society.  https://doi.org/10.1177/1462474517712977.Google Scholar
  25. Dollinger, B., & Fröschle, T. (2017). Me and my custodial sentence. Narrative Inquiry, 27, 66–84.Google Scholar
  26. Döring, N., & Bortz, J. (2016). Forschungsmethoden und Evaluation in den Sozial- und Humanwissenschaften (5. Aufl.). Berlin: Springer.Google Scholar
  27. Elder-Vass, D. (2017). Wie wirken Normen? In U. Lindner & D. Mader (Hrsg.), Critical Realism meets kritische Sozialtheorie (S. 77–93). Bielefeld: transcript.Google Scholar
  28. Eppler, N., Miethe, I., & Schneider, A. (Hrsg.). (2011). Qualitative und Quantitative Wirkungsforschung. Opladen: Budrich.Google Scholar
  29. Farrall, S. (2002). Rethinking what works with offenders. Cullompton: Willan.Google Scholar
  30. Farrington, D. P., Gottfredson, D. C., Sherman, L. W., & Welsh, B. C. (2002). The Maryland scientific methods scale. In L. W. Sherman, D. P. Farrington, B. C. Welsh & D. L. MacKenzie (Hrsg.), Evidence-based crime prevention (S. 13–21). London: Routledge.Google Scholar
  31. Garfinkel, H. (1967). Studies in ethnomethodology. Cambridge: Polity.Google Scholar
  32. Gibbs, L., & Gambrill, E. (2002). Evidence-based practice. Research on Social Work Practice, 12, 452–476.Google Scholar
  33. Graebsch, C. (2018). What works? Who cares? In B. Dollinger & H. Schmidt-Semisch (Hrsg.), Handbuch Jugendkriminalität (3. Aufl.) (S. 197–216). Wiesbaden: Springer VS.Google Scholar
  34. Gray, M., Plath, D., & Webb, S. A. (2009). Evidence-based social work. London: Routledge.Google Scholar
  35. Greenwood, P. W., & Welsh, B. C. (2012). Promoting evidence-based practice in delinquency prevention at the state level. Criminology & Public Policy, 11, 493–513.Google Scholar
  36. Hall, C., Juhila, K., Matarese, M., & van Nijnatten, C. (2014). Social work discourse in practice. In C. Hall, K. Juhila, M. Matarese & C. van Nijnatten (Hrsg.), Analysing social work communication (S. 1–8). London: Routledge.Google Scholar
  37. Hammersley, M. (2013). The myth of research-based policy and practice. London: SAGE.Google Scholar
  38. Harré, R. (1972). The philosophies of science. London: Oxford University Press.Google Scholar
  39. Heinz, W. (2007). Rückfall- und Wirkungsforschung – Ergebnisse aus Deutschland. http://www.uni-konstanz.de/rtf/kis/Heinz_Rueckfall-und_Wirkungsforschung_he308.pdf;. [Zugegriffen am 12. April 2018]Google Scholar
  40. Hempel, C. G., & Oppenheim, P. (1948). Studies in the logic of explanation. Philosophy of Science, 15, 135–175.Google Scholar
  41. Hitchcock, C. (2018). Probabilistic causation. The Stanford encyclopedia of philosophy. https://plato.stanford.edu/entries/causation-probabilistic/;. [Zugegriffen am 10. April 2018]Google Scholar
  42. Honig, M.-S., & Neumann, S. (2004). Wie ist ,gute Praxis‘ möglich? In C. Beckmann (Hrsg.), Qualität in der Sozialen Arbeit (S. 251–281). Wiesbaden: VS.Google Scholar
  43. Hough, M. (2010). Gold standard or fool’s gold? Criminology and Criminal Justice, 10, 11–22.Google Scholar
  44. Hume, D. (2016). An enquiry concerning human understanding/Eine Untersuchung über den menschlichen Verstand. Stuttgart: Reclam. Erstveröffentlichung 1758Google Scholar
  45. Kant, I. (1998). Kritik der reinen Vernunft. Hamburg: Meiner. Erstveröffentlichung 1781Google Scholar
  46. Klein, H. K. (2004). Seeking the new and the critical in critical realism: déjà vu? Information and Organization, 14, 123–144.Google Scholar
  47. Kühnel, S., & Dingelstedt, A. (2014). Kausalität. In N. Baur & J. Blasius (Hrsg.), Handbuch Methoden der empirischen Sozialforschung (S. 1017–1028). Wiesbaden: Springer.Google Scholar
  48. Kury, H., & Obergfell-Fuchs, J. (2012). Evaluationsforschung. In G. Albrecht & A. Groenemeyer (Hrsg.), Handbuch soziale Probleme (2. Aufl.) (S. 1521–1555). Wiesbaden: Springer VS.Google Scholar
  49. Lindner, U., & Mader, D. (Hrsg.). (2017). Critical Realism meets kritische Sozialtheorie. Bielefeld: transcript.Google Scholar
  50. Losee, J. (2011). Theories of causality. New Brunswick: Transaction.Google Scholar
  51. Lynch, M. (2000). Against reflexivity as an academic virtue and source of privileged knowledge. Theory, Culture & Society, 17, 26–54.Google Scholar
  52. Macsenaere, M., Esser, K., Knab, E., & Hiller, S. (Hrsg.). (2014). Handbuch der Hilfen zur Erziehung. Freiburg: Lambertus.Google Scholar
  53. Mader, D., Lindner, U., & Pühretmayer, H. (2017). Einleitung. In U. Lindner & D. Mader (Hrsg.), Critical Realism meets kritische Sozialtheorie (S. 7–23). Bielefeld: transcript.Google Scholar
  54. Mai, M., & Abdessadok, L. (2017). Positionierungen von Eltern und Fachkräften entlang von Bildungs- und Fürsorgediskursen in Kindertageseinrichtungen. In H. Weinbach, T. Coelen, B. Dollinger, C. Munsch & A. Rohrmann (Hrsg.), Folgen sozialer Hilfen (S. 119–131). Weinheim: Beltz Juventa.Google Scholar
  55. Manchak, S. M., & Cullen, F. T. (2015). Intervening effectively with juvenile offenders. In J. Morizot & L. Kazemian (Hrsg.), The development of criminal and antisocial behavior (S. 477–490). Cham: Springer.Google Scholar
  56. Mandelbaum, J. (2014). Storytelling in conversation. In J. Sidnell & T. Stivers (Hrsg.), The handbook of conversation analysis (S. 492–507). Chichester: Wiley-Blackwell.Google Scholar
  57. Marshall, W. L., & Marshall, L. E. (2007). The utility of the random controlled trial for evaluating sexual offender treatment. Sexual Abuse, 19, 175–191.Google Scholar
  58. Maruna, S. (2001). Making good. Washington: American Psychological Association.Google Scholar
  59. Mau, S. (2017). Das metrische Wir. Berlin: Suhrkamp.Google Scholar
  60. McCord, J. (2003). Cures that harm. The Annals of the American Academy of Political and Social Science, 587, 16–30.Google Scholar
  61. Merton, R. K. (1967). Social theory and social structure (2. Aufl.). New York: Free Press.Google Scholar
  62. Messmer, H., & Hitzler, S. (2008). Practice-based evidence. In I. M. Bryderup (Hrsg.), Evidence based and knowledge based social work (S. 33–52). Aarhus: Aarhus University Press.Google Scholar
  63. Messmer, H. (2017). Der Beitrag der Konversationsanalyse zu einem realistischen Hilfeverständnis. In H. Weinbach, T. Coelen, B. Dollinger, C. Munsch & A. Rohrmann (Hrsg.), Folgen sozialer Hilfen (S. 75–88). Weinheim: Beltz Juventa.Google Scholar
  64. Micheel, H.-G. (2013). Methodische Aspekte der Wirkungsforschung. In G. Graßhoff (Hrsg.), Adressaten, Nutzer, Agency (S. 181–193). Wiesbaden: Springer VS.Google Scholar
  65. Moses, J. W., & Knutsen, T. L. (2012). Ways of knowing (2. Aufl.). Basingstoke: Palgrave Macmillan.Google Scholar
  66. Münch, R. (2002). Handlungstheorie. Soziologische Theorie, Bd. 2. Frankfurt am Main: Campus.Google Scholar
  67. Myers, R. R., & Goddard, T. (2018). Virtuous profits. Punishment & Society, 20, 155–173.Google Scholar
  68. Otto, H.-U., Polutta, A., & Ziegler, H. (Hrsg.). (2009). Evidence-based practice. Opladen: Budrich.Google Scholar
  69. Otto, H.-U., Polutta, A., & Ziegler, H. (Hrsg.). (2010). What works. Opladen: Budrich.Google Scholar
  70. Pawson, R. (2013). The science of evaluation. Los Angeles: SAGE.Google Scholar
  71. Pawson, R., & Tilley, N. (1997). Realistic evaluation. London: SAGE.Google Scholar
  72. Pawson, R., & Tilley, N. (2009). Realist evaluation. In H.-U. Otto, A. Polutta & H. Ziegler (Hrsg.), Evidence-based practice (S. 151–180). Opladen: Budrich.Google Scholar
  73. Petrosino, A., Boruch, R. F., Farrington, D. P., Sherman, L., & Weisburd, D. (2001). Towards evidence-based criminology and criminal justice. The Forum, 19, 1–6.Google Scholar
  74. de Pierris, G., & Friedman, M. (2013). Kant and Hume on causality. The Stanford encyclopedia of philosophy. https://plato.stanford.edu/archives/win2013/entries/kant-hume-causality/. Zugegriffen: 10. Apr. 2018.Google Scholar
  75. Pignotti, M., & Thyer, B. A. (2009). Why randomized clinical trials are important and necessary to social work practice. In H.-U. Otto, A. Polutta & H. Ziegler (Hrsg.), Evidence-based practice (S. 99–110). Opladen: Budrich.Google Scholar
  76. Polutta, A. (2014). Wirkungsorientierte Transformation der Jugendhilfe. Wiesbaden: Springer VS.Google Scholar
  77. Pratt, T. C. (2010). Meta-analysis in criminal justice and criminology. Journal of Criminal Justice Education, 21, 152–168.Google Scholar
  78. Presser, L. (2008). Been a heavy life. Urbana: University of Illinois Press.Google Scholar
  79. Reckwitz, A. (2003). Grundelemente einer Theorie sozialer Praktiken. Zeitschrift für Soziologie, 32, 282–301.Google Scholar
  80. Sacks, H. (1995). Lectures on conversation. Oxford: Blackwell.Google Scholar
  81. Sampson, R. J. (2010). Gold standard myths. Journal of Quantitative Criminology, 26, 489–500.Google Scholar
  82. Sayer, R. A. (2000). Realism and social science. London: SAGE.Google Scholar
  83. Schäfer, H. (Hrsg.). (2016). Praxistheorie. Bielefeld: transcript.Google Scholar
  84. Schatzki, T. R., Knorr Cetina, K., & v. Savigny, E. (Hrsg.). (2001). The practice turn in contemporary theory. London: Routledge.Google Scholar
  85. Schmid, M. (2006). Die Logik mechanismischer Erklärungen. Wiesbaden: VS.Google Scholar
  86. Seipel, C., & Rippl, S. (2013). Integration qualitativer und quantitativer Methoden in der Übergangsforschung. In W. Schröer, B. Stauber, A. Walther, L. Böhnisch & K. Lenz (Hrsg.), Handbuch Übergänge (S. 1049–1071). Weinheim: Beltz Juventa.Google Scholar
  87. Sheldon, B., & Macdonald, G. M. (2009). A textbook of social work. New York: Routledge.Google Scholar
  88. Sherman, L. W. (2007). The power few. Journal of Experimental Criminology, 3, 299–321.Google Scholar
  89. Smith, D. (Hrsg.). (2004). Social work and evidence-based practice. London: Jessica Kingsley.Google Scholar
  90. Sommerfeld, P., & Hüttemann, M. (Hrsg.). (2007). Evidenzbasierte soziale Arbeit. Baltmannsweiler: Schneider.Google Scholar
  91. Sommerfeld, P. (2016). Evidenzbasierung als ein Beitrag zum Aufbau eines professionellen Wissenskorpus in der Sozialen Arbeit. In S. Borrmann & B. Thiessen (Hrsg.), Wirkungen Sozialer Arbeit (S. 21–41). Opladen: Budrich.Google Scholar
  92. Soydan, H., & Palinkas, L. A. (2014). Evidence-based practice in social work. London: Routledge.Google Scholar
  93. Thomas, W. I., & Thomas, D. S. (1970). The methodology of behavior study. In The child in America (S. 553–575). New York: Johnson Reprint.Google Scholar
  94. Watson, D. R. (1976). Some conceptual issues in the social identification of victims and offenders. In E. C. Viano (Hrsg.), Victims and society (S. 60–71). Washington: Visage.Google Scholar
  95. Webb, S. A. (2001). Some considerations on the validity of evidence-based practice in social work. British Journal of Social Work, 31, 57–79.Google Scholar
  96. Weinbach, H., Coelen, T., Dollinger, B., Munsch, C., & Rohrmann, A. (Hrsg.). (2017). Folgen sozialer Hilfen. Weinheim: Beltz Juventa.Google Scholar
  97. Weisburd, D., & Hinkle, J. C. (2018). Die Bedeutung von randomisierten Experimenten bei der Evaluation von Kriminalprävention. In M. Walsh, B. Pniewski, M. Kober & A. Armborst (Hrsg.), Evidenzorientierte Kriminalprävention in Deutschland (S. 289–312). Wiesbaden: Springer VS.Google Scholar
  98. Wilson, D. B. (2001). Meta-analytic methods for criminology. Annals of the American Academy of Political and Social Science, 578, 71–89.Google Scholar
  99. Woolgar, S., & Pawluch, D. (1985). Ontological gerrymandering. Social Problems, 32, 214–227.Google Scholar
  100. Ziegler, H. (2010). Ist der experimentelle Goldstandard wirklich Gold wert für eine Evidenzbasierung der Praxis Früher Hilfen? Bundesgesundheitsblatt, 53, 1061–1066.Google Scholar
  101. Ziegler, H. (2012a). Wirkungsevaluation in der Sozialen Arbeit mit straffälligen jungen Menschen. In DVJJ (Hrsg.), Achtung (für) Jugend! (S. 303–317). Mönchengladbach: DVJJ.Google Scholar
  102. Ziegler, H. (2012b). Wirkungsforschung – über Allianzen von Evaluation und Managerialismus und die Möglichkeit erklärender Kritik. In E. Schimpf & J. Stehr (Hrsg.), Kritisches Forschen in der Sozialen Arbeit (S. 93–105). Wiesbaden: VS.Google Scholar

Copyright information

© Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2018

Authors and Affiliations

  1. 1.Fakultät II, Department Erziehungswissenschaft – PsychologieUniversität SiegenSiegenDeutschland

Personalised recommendations