Jugendgewaltprävention und Wirkungsorientierung: Monitoring, Evaluation und Transfer durch die Berliner Arbeitsstelle Jugendgewaltprävention

  • Birgit Glock
  • Albrecht Lüter
  • Miriam Schroer-Hippel
Chapter

Zusammenfassung

Die Arbeitsstelle Jugendgewaltprävention ist mit der Weiterentwicklung des Gesamtkonzepts des Landes Berlin zur Reduzierung der Jugendgewaltdelinquenz beauftragt. Sie generiert steuerungsrelevantes Wissen für Politik, Verwaltung und Fachpraxis. Zentrale Aufgabenbereiche sind ein sozialraumbezogenes Monitoring Jugendgewaltdelinquenz und Evaluationen von gewaltpräventiven Angeboten. Das Evaluationskonzept der Arbeitsstelle beruht auf den drei Säulen Evaluationssynthese, Projektevaluationen und Stärkung der Selbstevaluation.

Um die Wirkungsorientierung der gewaltpräventiven Arbeit im Land Berlin zu fördern, wird eine multimethodische und -perspektivische Herangehensweise umgesetzt, die sich nicht auf (quasi-)experimentelle Forschungsdesigns beschränkt. Auch der Wissenstransfer und die Validierung der Ergebnisse durch Politik, Verwaltung und Fachpraxis nehmen in der angestrebten Verstärkung von wirkungsorientierten Perspektiven einen hohen Stellenwert ein.

Schlüsselwörter

Evidenzorientierung Berlin Jugendgewaltprävention Jugendgewalt indikatorengestütztes Monitoring Evaluationen Evaluationssynthese Sozialraum Fachtransfer 

Preview

Unable to display preview. Download preview PDF.

Unable to display preview. Download preview PDF.

Literatur

  1. Albus, S., & Micheel, H.-G. (2012). Entmündigung der Praxis? Wirkungsorientierung und Evidence Based Practice. In K. Unzicker & G. Hessler (Hrsg.), Öffentliche Sozialforschung und Verantwortung für die Praxis. Zum Verhältnis von Sozialforschung, Praxis und Öffentlichkeit. (S. 179 – 197). Wiesbaden.Google Scholar
  2. Arbeitsstelle Jugendgewaltprävention. (2014). Qualitätszirkel der Arbeitsstelle Jugendgewaltprävention im November 2013: Kurzdokumentation für die Teilnehmerinnen und Teilnehmer. http://www.jugendgewaltpraevention.de/sites/default/files/Dokumentation_Qualitaetszirkel%20_2013.pdf. Zugegriffen: 13. März 2017.
  3. Aumüller, J. (2015). Wenn die Nacht am tiefsten ist. Mitternachtssport in Berlin-Spandau. In S. Behn & A. Lüter (Hrsg.), Gewaltprävention und Sport. Drei Projektevaluationen. (S. 79 – 146). Berlin.Google Scholar
  4. Bartsch, S., & Stroppel, S. (2015). Begleitung bewährungsunterstellter Intensiv- und Mehrfachtäter/ innen. Das Projekt Quartal. In A. Lüter & M. Schroer-Hippel (Hrsg.), Gewaltpräventive Arbeit mit gefährdeten und straffälligen jungen Menschen. Vier Projektevaluationen (S. 10 – 57). Berlin.Google Scholar
  5. Bergert, M., Karliczek, K.-M., & Lüter, A. (2015). Gewalterfahrung und Lebenslage. Eine Dunkelfelduntersuchung an Schulen in Berlin. Berliner Forum Gewaltprävention: Nr. 54. Berlin.Google Scholar
  6. Bergert, M., Lüter, A., & Schroer-Hippel, M. (2015). Berliner Monitoring Jugendgewaltdelinquenz. Zweiter Bericht 2015. Berliner Forum Gewaltprävention: Nr. 56. Berlin.Google Scholar
  7. Caspari, A. (2010). Lernen aus Evaluierungen. Meta-Evaluation & Evaluationssynthese von InWEnt-Abschlussevaluierungen 2009. http://www.giz.de/de/downloads/giz2010-​de-meta-evaluation-synthese-lernen-aus-evaluierungen.pdf. Zugegriffen: 12. April 2017.
  8. Cooksy, L., & Caracelli, V. J. (2005). Quality, Context and Use. Issues in Achieving the Goals of Meta-Evaluation. American Journal of Evaluation, 26 (1), 31 – 43.Google Scholar
  9. DeGEval. (2008). Standards für Evaluation. http://www.degeval.de/images/stories/Publikationen/DeGEval_-_Standards.pdf. Zugegriffen: 13. April 2017.
  10. Dollinger, B. (2015). Was wirkt aus wessen Perspektive? Aktuelle Tendenzen der „evidence- based criminology“ und ihre Konsequenzen für Politik und professionelle Praxis. Monatsschrift für Kriminologie und Strafrecht, 98 (5), 428 – 443.Google Scholar
  11. Flick, U. (2006). Qualitative Sozialforschung. Eine Einführung. Hamburg. Gesamtkonzept. (2011). Gesamtkonzept zur Reduzierung der Jugendgewaltdelinquenz. Berlin. http://www.jugendgewaltpraevention.de/sites/default/files/Berliner_Gesamtkonzept_zur%20Reduzierung_von_Jugendgewalt.pdf. Zugegriffen: 13. April 2017.
  12. Glock, B. (2014). Projekte, Programme und Maßnahmen der Gewaltprävention in Berlin: Meta-Evaluation und Evaluationssynthese von Berliner Evaluationen (2006 – 2014). Berlin. https://www.berlin.de/lb/lkbgg/_assets/metaevaluation-berliner-evaluationen-​2014.pdf. Zugegriffen: 05. September 2016.
  13. Glock, B. (2015). Gewaltpräventive Angebote für Jugendliche. Eine Meta-Evaluation und Evaluationssynthese. Unsere Jugend, (2), 59 – 70.Google Scholar
  14. Glock, B., & Karliczek, K.-M. (2014). Meta-Evaluation, Evaluationssynthese und Entwicklung von Bewertungskriterien. Berlin. http://www.jugendgewaltpraevention.de/sites/default/files/Metaevaluation_und_Evaluationskriterien.pdf. Zugegriffen: 05. September 2016.
  15. Groeger-Roth, F. (2014). Brauchen wir eine „Rote Liste Prävention“? Was empfiehlt sich nicht in der Prävention? http://www.gruene-liste-praevention.de/communities-thatcare/Media/Musterprasentation_Rote_Liste.pdf. Zugegriffen: 23. März 2017.
  16. Groeger-Roth, F., & Hasenpusch, B. (2011). Die „Grüne Liste Prävention“ – effektive und erfolgversprechende Präventionsprogramme im Blick. forum kriminalprävention, (4), 52 – 58.Google Scholar
  17. Hayes, J., & Schnetter, K. (2016). Die Anti-Gewalt-Kurse der Integrationshilfe Berlin. Ergebnisse der Evaluation. In A. Lüter (Hrsg.), Berliner Forum Gewaltprävention: Nr. 61. Die Praxis der Prävention. Evaluationsstudien zu Berliner Maßnahmen und Projekten gegen Jugendgewalt – Zweite Folge (S. 51 – 73). Berlin.Google Scholar
  18. Jornitz, S. (2009). Evidenzbasierte Bildungsforschung. Pädagogische Korrespondenz, (40), 68 – 75.Google Scholar
  19. Karliczek, K.-M. (2015). Peer-Mediation hinter Gittern. Konstruktive Konfliktbearbeitung in der Jugendstrafanstalt. In A. Lüter & M. Schroer-Hippel (Hrsg.), Gewaltpräventive Arbeit mit gefährdeten und straffälligen jungen Menschen. Vier Projektevaluationen (S. 120 – 145). Berlin.Google Scholar
  20. Karliczek, K.-M., & Bergert, M. (2014). Handreichung Selbstevaluation. Handlungsempfehlungen für Projekte im Bereich der Jugendgewaltprävention. Berliner Forum Gewaltprävention: Nr. 51. Berlin.Google Scholar
  21. Körner, J. (2006). Wirksamkeit ambulanter Arbeit mit delinquenten Jugendlichen: Erste Ergebnisse einer vergleichenden Studie. Zeitschrift für Jugendkriminalrecht und Jugendhilfe, 17(3), 267 – 275.Google Scholar
  22. Lüders, C., & Haubrich, K. (2007). Evaluation in wenig formalisierten pädagogischen Settings. In M. Glaser & P. Schuster (Hrsg.), Evaluation präventiver Praxis gegen Rechtsextremismus. Positionen, Konzepte und Erfahrungen (S. 136 – 149). Halle.Google Scholar
  23. Lüter, A. (2016). Jugendgewalt und Prävention im sozialen Brennpunkt. Die Köllnische Heide in Berlin-Neukölln. In A. Lüter (Hrsg.), Berliner Forum Gewaltprävention: Nr. 61. Die Praxis der Prävention. Evaluationsstudien zu Berliner Maßnahmen und Projekten gegen Jugendgewalt – Zweite Folge (S. 75 – 162). Berlin.Google Scholar
  24. Lüter, A., & Behn, S. (2015). „Bleib Cool am Pool“ – ein sozial-integratives und gewaltpräventives Konfliktlotsenprojekt im Freibad. In S. Behn & A. Lüter (Hrsg.), Gewaltprävention und Sport. Drei Projektevaluationen. (S. 10 – 78). Berlin.Google Scholar
  25. Lüter, A., Schroer-Hippel, M., & Bergert, M. (2016). Berliner Monitoring Jugendgewaltdelinquenz. Dritter Bericht 2016. Risikofaktoren in Schule und Erziehung. Berliner Forum Gewaltprävention: Nr. 58. Berlin.Google Scholar
  26. Lüter, A., Schroer-Hippel, M., Bergert, M., & Glock, B. (2017). Berliner Monitoring Jugendgewaltdelinquenz. Vierter Bericht 2017. Berliner Forum Gewaltprävention: Nr. 62. Berlin.Google Scholar
  27. Neuhaus, J., Kleiber, D., & Hannover, B. (2015). Die Wirksamkeit polizeilicher Gewaltpräventionsmaßnahmen an Berliner Schulen. Prävention, (2), 49 – 53.Google Scholar
  28. Otto, H.-U., Polutta, A., & Ziegler, H. (Hrsg.). (2010). What Works – Welches Wissen braucht die Soziale Arbeit? Zum Konzept evidenzbasierter Praxis. Opladen, Farmington Hills.Google Scholar
  29. Raab, M., & Stuppert, W. (2015). HEROES – Gegen Unterdrückung im Namen der Ehre. Ein Peer-Ansatz mit Jugendlichen aus „Ehrenkulturen“. In A. Lüter & M. Bergert (Hrsg.), Gewaltprävention in einer pluralen Stadt. Drei Projektevaluationen. (S. 9 – 73). Berlin.Google Scholar
  30. Sampson, R. J. (2010). Gold Standard Myths: Observations on the Experimental Turn in Quantitative Criminology. Quantitative Criminology, 26, 489 – 500.Google Scholar
  31. Schnetter, K., & Hayes, J. (2015). Zum Training verdonnert? Die Anti-Gewalt-Trainings der Integrationshilfe Berlin. In A. Lüter & M. Schroer-Hippel (Hrsg.), Gewaltpräventive Arbeit mit gefährdeten und straffälligen jungen Menschen. Vier Projektevaluationen (S. 58 – 97). Berlin.Google Scholar
  32. Schroer-Hippel, M. (2016). Das systemisch-lösungsorientierte Antigewalttraining TESYA ®. Evaluation eines genderreflektierten Angebots für Jugendliche. In A. Lüter (Hrsg.), Berliner Forum Gewaltprävention: Nr. 61. Die Praxis der Prävention. Evaluationsstudien zu Berliner Maßnahmen und Projekten gegen Jugendgewalt – Zweite Folge (S. 199 – 235). Berlin.Google Scholar
  33. Schroer-Hippel, M., & Karliczek, K.-M. (2014). Berliner Monitoring Jugendgewaltdelinquenz. Erster Bericht 2014. 2., korrigierte Auflage. Berliner Forum Gewaltprävention: Nr. 53. Berlin.Google Scholar
  34. Schwenzer, V. (2010). TESYA® family. Tandem-Trainings für aggressiv auffällige Jugendliche und ihre Eltern. Familie e. V. Beratung für Eltern, Kinder und Jugendliche. Berlin.Google Scholar
  35. Steinke, I. (2000). Gütekriterien qualitativer Forschung. In U. Flick, E. v. Kardoff, & I. Steinke (Hrsg.), Qualitative Forschung. Ein Handbuch. (S. 319 – 331). Hamburg.Google Scholar
  36. Strobl, R., & Lobermeier, O. (2012). Zwischen Akzeptanz und Abwehr: Das Verhältnis von Wissenschaft und Praxis am Beispiel der Begleitung und Evaluation von Programmen und Projekten. In K. Unzicker & G. Hessler (Hrsg.), Öffentliche Sozialforschung und Verantwortung für die Praxis. Zum Verhältnis von Sozialforschung, Praxis und Öffentlichkeit. (S. 217 – 233). Wiesbaden.Google Scholar
  37. Stufflebeam, D. L. (2001). The Metaevalution Imperative. American Journal of Evaluation, 22(2), 183 – 209.Google Scholar
  38. Tausendteufel, H., & Ohder, C. (2014). Das besonders beschleunigte vereinfachte Jugendverfahren in Berlin: Eine Evaluationsstudie des Neuköllner Modells. https://www.berlin.de/sen/justva/_assets/neukoellner-modell.pdf. Zugegriffen: 13. März 2017.
  39. Tippelt, R., & Reich-Claasen, J. (2010). Stichwort: Evidenzbasierung. Kopf oder Zahl. Evidenzbasiert steuern. DIE Zeitschrift für Erwachsenenbildung, (4), 22 – 23.Google Scholar
  40. Widmer, T. (1996). Meta-Evaluation. Kriterien für die Bewertung von Evaluationen. Bern/ Stuttgart/Wien: Paul Haupt.Google Scholar
  41. Ziegler, H. (2010). Ist der experimentelle Goldstandard wirklich Gold wert für eine Evidenzbasierung der Praxis Früher Hilfen? Bundesgesundheitsblatt, Gesundheitsforschung, Gesundheitsschutz, 53(10), 1061 – 1066.Google Scholar

Copyright information

© Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2018

Authors and Affiliations

  • Birgit Glock
    • 1
  • Albrecht Lüter
    • 1
  • Miriam Schroer-Hippel
    • 1
  1. 1.BerlinDeutschland

Personalised recommendations