Advertisement

Entscheidungsfindung in Bildungspolitik und Bildungsverwaltung

  • Kathrin DederingEmail author
Chapter
Part of the Educational Governance book series (EDUGOV, volume 7)

Zusammenfassung

In diesem Beitrag geht es um die Frage, wie sich das Steuerungshandeln der Akteure aus Bildungspolitik und Bildungsverwaltung auf der Basis bereitgestellter Informationen über den Entwicklungsstand des Bildungswesens und dessen Auswirkungen gestaltet. Anhand einer Analyse des empirischen Forschungsstandes wird die Annahme formuliert, dass das Wirkungsmodell, nach dem das Handeln der Akteure über die sachgerechte Rezeption und Auswertung der Informationen effizienter und effektiver wird, nur eine begrenzte Gültigkeit besitzt. Der Zusammenhang von Evidenz und Entscheidungsfindung ist oftmals weniger linear und instrumentell als vom Modell unterstellt. Darüber hinaus liegt der Evidenznutzung nicht nur eine Sach- und Problemorientierung zu Grunde, die auf die Verbesserung von Schule und Schulqualität abzielt; vielmehr spielen häufig auch politisch-taktische Intentionen eine Rolle.

Schlüsselwörter

Bildungspolitik Bildungsadministration Steuerung Governance Evidenz Entscheidungsfindung Empirische Studie PISA-2000 Presseanalyse 

Literatur

  1. Altrichter, H., & Heinrich, M. (2006). Evaluation als Steuerungsinstrument im Rahmen eines „neuen Steuerungsmodells“ im Schulwesen. In W. Böttcher, H. G. Holtappels, & M. Brohm (Hrsg.), Evaluation im Bildungswesen (S. 51–64). Weinheim: Juventa.Google Scholar
  2. Altrichter, H., & Heinrich, M. (2007). Kategorien der Governance-Analyse und Transformationen der Systemsteuerung in Österreich. In H. Altrichter, T. Brüsemeister, & J. Wissinger (Hrsg.), Educational Governance (S. 55–103). Wiesbaden: VS Verlag für Sozialwissenschaften.CrossRefGoogle Scholar
  3. Altrichter, H., & Kanape-Willingshofer, A. (2012). Bildungsstandards und externe Überprüfung von Schülerkompetenzen: Mögliche Beiträge externer Messungen zur Erreichung der Qualitätsziele der Schule. In B. Herzog-Punzenberger (Hrsg.), Nationaler Bildungsbericht Österreich 2012. Bd. 2: Fokussierte Analysen bildungspolitischer Schwerpunktthemen (S. 355–394). Graz: Leykam.Google Scholar
  4. Altrichter, H., Brüsemeister, T., & Wissinger, J. (Hrsg.). (2007). Educational Governance. Handlungskoordination und Steuerung im Bildungssystem. Wiesbaden: VS Verlag für Sozialwissenschaften.Google Scholar
  5. Anderson, B., & Briddle, B. J. (Hrsg.). (1991). Knowledge for policy: Improving education through research. London: Falmer.Google Scholar
  6. Askim, J. (2007). How do politicians use performance information? International Review of Administrative Sciences, 73, 453–472.CrossRefGoogle Scholar
  7. Behn, R. (2003). Why measure performance? Different purposes require different measures. Public Administration Review, 63, 586–606.CrossRefGoogle Scholar
  8. Bemelmans-Videc, M.-L. (1989). Dutch experience in the utilization of evaluation research: The procedure of reconsideration. Knowledge in Society, 2, 31–48.Google Scholar
  9. Benz, A., Lütz, S., Schimank, U., & Simonis, G. (Hrsg.). (2007). Handbuch Governance. Wiesbaden: VS Verlag für Sozialwissenschaften.CrossRefGoogle Scholar
  10. Bogt, H. (2004). Politicians in search of performance information? Survey research on Dutch Aldermen’s use of performance information. Financial Accountability and Management, 20, 221–252.CrossRefGoogle Scholar
  11. Bos, W., & Postlethwaite, N. (2000). Möglichkeiten, Grenzen und Perspektiven internationaler Schulleistungsforschung. In H.-G. Rolff, W. Bos, K. Klemm, H. Pfeiffer, & R. Schulz-Zander (Hrsg.), Jahrbuch der Schulentwicklung. Bd. 11 (S. 365–386). Weinheim: Juventa.Google Scholar
  12. Büeler, X. (2007). School Governance – Die Fallstudie Luzern. In H. Altrichter, T. Brüsemeister, & J. Wissinger (Hrsg.), Educational Governance (S. 131–155). Wiesbaden: VS Verlag für Sozialwissenschaften.CrossRefGoogle Scholar
  13. Bussmann, W. (1996). Democracy and evaluation’s contribution to negotiation, empowerment and information. Evaluation, 2, 307–319.CrossRefGoogle Scholar
  14. Caplan, N. (1976). Social research and national policy: What gets used, by whom, for what purposes and with what effects? International Social Science Journal, 28, 187–194.Google Scholar
  15. Caplan, N. S., Morrison, A., & Stambaugh, R. J. (1975). The use of social science knowledge in policy decisions at the national level. Ann Arbor: Institute for Social Research, University of Michigan.Google Scholar
  16. Coburn, C. E., Honig, M. I., & Stein, M. K. (2009a). What is the evidence on districts’ use of evidence? In J. Bransford, L. Gomez, D. Lam, & N. Vye (Hrsg.), Research and practice: Towards a reconciliation (67–88). Cambridge: Havard Educational Press.Google Scholar
  17. Coburn, C. E., Toure, J., & Yamashita, M. (2009b). Evidence, interpretation, and persuasion: Instructional decision making at the district central office. Teachers College Record, 111, 1115–1161.Google Scholar
  18. Commission of the European Communities, SEC. (2007). Towards more knowledge-based policy and practice in education and training. Brüssel: Commission Staff Working Document.Google Scholar
  19. Corcoran, T., Fuhrman, S. H., & Belcher, C. L. (2001). The district role in instructional improvement. Phi Delta Kappan, 83, 78–84.CrossRefGoogle Scholar
  20. Cousins, J. B., & Leithwood, K. A. (1986). Current Empirical Research on Evaluation Utilization. Review of Educational Research, 56, 331–364.CrossRefGoogle Scholar
  21. Daly, A., & Finnigan, K. (2010). A bridge between Worlds: Understanding network structure to understand change strategy. Journal of Educational Change, 11, 111–138.CrossRefGoogle Scholar
  22. Davies, P. (2012). The state of evidence-based policy evaluation and its role in policy formation. National Institute Economic Review, 219, R41–R52.CrossRefGoogle Scholar
  23. Dedering, K. (2008). Der Einfluss bildungspolitischer Maßnahmen auf die Steuerung des Schulsystems. Zeitschrift für Pädagogik, 54, 869–887.Google Scholar
  24. Dedering, K. (2009a). Evidence-based education policy – Lip service or Common Practice? Empirical Findings from Germany. European Educational Research Journal, 8, 484–496.CrossRefGoogle Scholar
  25. Dedering, K. (2009b). Schulministerien und ihr Umgang mit Leistungsvergleichsstudien. In W. Böttcher, J. N. Dicke, & H. Ziegler (Hrsg.), Evidenzbasierte Bildung. Wirkungsevaluation in Bildungspolitik und pädagogischer Praxis (S. 201–210). Münster: Waxmann.Google Scholar
  26. Dedering, K. (2011). Hat Feedback eine positive Wirkung? Zur Verarbeitung extern erhobener Leistungsdaten in Schulen. Unterrichtswissenschaft, 39, 61–81.Google Scholar
  27. Dedering, K., Kneuper, D., Kuhlmann, C., Nessel, I., & Tillmann, K.-J. (2007). Bildungspolitische Aktivitäten im Zuge von PISA – Das Beispiel Bremen. Die Deutsche Schule, 99, 408–421.Google Scholar
  28. Döbert, H., & Avenarius, H. (2007). Konzeptionelle Grundlagen der Bildungsberichterstattung in Deutschland. In J. v. Buer & C. Wagner (Hrsg.), Qualität von Schule (S. 297–314). Frankfurt a. M.: Peter Lang.Google Scholar
  29. Drerup, H., & Terhart, E. (1979). Wissensproduktion und Wissensanwendung im Bereich der Erziehungswissenschaft. Zeitschrift für Pädagogik, 25, 377–394.Google Scholar
  30. Englert, R. M., Kean, M. H., & Scribner, J. D. (1977). Politics of program evaluation in large city school districts. Education and Urban Society, 9, 429–450.Google Scholar
  31. Farley-Ripple, E. N. (2012). Research use in school district central office decision making: A case study. Educational Management Administration & Leadership, 40(6), 786–806.CrossRefGoogle Scholar
  32. Fend, H. (2008). Schule gestalten. Wiesbaden: VS Verlag für Sozialwissenschaften.Google Scholar
  33. Hall, R. (1997). Knowledge use and the dynamics of managing curriculum change. Science Communication, 18, 342–361.CrossRefGoogle Scholar
  34. Hannaway, J. (1989). Managers managing: The workings of an administrative system. New York: Oxford University Press.Google Scholar
  35. Honig, M. I. (2003). Building policy from practice: Central office administrators’ roles and capacity in collaborative policy implementation. Educational Administration Quarterly, 39, 292–338.CrossRefGoogle Scholar
  36. Honig, M. I. (2009). No small thing: School district central office bureaucracies and the implementation of new small autonomous schools initiatives. American Educational Research Journal, 46, 387–422.CrossRefGoogle Scholar
  37. Honig, M., & Coburn, C. (2008). Evidence-based decision making in school district central offices. Toward a policy and research agenda. Educational Policy, 22, 578–608.CrossRefGoogle Scholar
  38. Honig, M. I., & Venkateswaran, N. (2012). School-central office relationships in evidence use: Understanding evidence use as a systems problem. American Journal of Education, 118, 199–222.CrossRefGoogle Scholar
  39. Honig, M. I., Copland, M. A., Rainey, L., Lorton, J., & Newton, M. (2010). Central office transformation district-wide teaching and learning improvement. Seattle: Center for Teaching and Policy, University of Washington.Google Scholar
  40. Johnson, B. L. (1999). The politics of research-information use in the educational policy arena. Educational Policy, 13, 23–36.CrossRefGoogle Scholar
  41. Jornitz, S. (2008). Was bedeutet „evidenzbasierte Bildungsforschung“? Die Deutsche Schule, 100, 206–216.Google Scholar
  42. Kennedy, M. M. (1982a). Evidence and decision. In M. M. Kennedy (Hrsg.), Working knowledge and other essays (S. 59–103). Cambridge: Huron Institute.Google Scholar
  43. Kennedy, M. M. (1982b). Working knowledge. In M. M. Kennedy (Hrsg.), Working knowledge and other essays (S. 1–28). Cambridge: Huron Institute.Google Scholar
  44. Kneuper, D. (2010). PISA und die Bildungsadministration. Bildungspolitische Verarbeitungs- und Entscheidungsprozesse zur Schulstrukturfrage nach PISA 2000. Tönning: Der Andere Verlag.Google Scholar
  45. Knorr, K. D. (1977). Policymakers’ use of social science knowledge. Symbolic or instrumental? In C. H. Weiss (Hrsg.), Using social research in public policy making (S. 165–182). Lexington: Lexington Books.Google Scholar
  46. Kopp, B. v. (2008). Bildungssteuerung: Vom Drehen an der Stellschraube zur Governance. TiBi, 19, 1–36.Google Scholar
  47. Kuhlmann, C. (2012). Bildungspolitik und Leistungsvergleichsstudien. PISA und die Ganztagsschulentwicklung. Wiesbaden: VS Verlag für Sozialwissenschaften.CrossRefGoogle Scholar
  48. Kühn, S. E. (2010). Steuerung und Innovation durch Abschlussprüfungen? Wiesbaden: VS Verlag für Sozialwissenschaften.CrossRefGoogle Scholar
  49. Kuper, H. (2006). Eröffnen sich aus dem Erziehungssystem Alternativen zur funktionalen Differenzierung pädagogischer Kommunikation? In Y. Ehrenspeck & D. Lenzen (Hrsg.), Beobachtungen des Erziehungssystems. Systemtheoretische Perspektiven (S. 178–191). Wiesbaden: VS Verlag für Sozialwissenschaften.CrossRefGoogle Scholar
  50. Kussau, J., & Brüsemeister, T. (2007). Educational Governance: Zur Analyse der Handlungskoordination im Mehrebenensystem der Schule. In H. Altrichter, T. Brüsemeister, & J. Wissinger (Hrsg.), Educational Governance – Handlungskoordination und Steuerung im Bildungssystem (S. 15–54). Wiesbaden: VS Verlag für Sozialwissenschaften.Google Scholar
  51. Lenz, C., & Ruchlak, N. (2001). Kleines Politik-Lexikon. München: Oldenbourg.Google Scholar
  52. Leviton, L., & Hughes, E. (1981). Research on the utilizations of evaluations: A review and synthesis. Evaluation Review, 5, 525–548.CrossRefGoogle Scholar
  53. Lindblom, C. E., & Cohen, D. K. (1979). Usable knowledge: Social science and problem solving. New Haven: Yale University Press.Google Scholar
  54. Marsh, J. A. (2006). Democratic dilemmas. Albany: State University of New York Press.Google Scholar
  55. Melkers, J., & Willoughby, K. G. (2005). Models of performance-measurement use in local governments. Public Administration Review, 65, 180–190.CrossRefGoogle Scholar
  56. OECD/CERI. (1995a). Decision-making in 14 OECD Education Systems. Paris: OECD.Google Scholar
  57. OECD/CERI. (1995b). Educational research and development: Trends, issues and challenges. Paris: OECD.Google Scholar
  58. OECD/CERI. (1998). Education at a glance. OECD indicators 1998. Paris: OECD.Google Scholar
  59. OECD/CERI. (2000). Knowledge management in the learning society. Paris: OECD.Google Scholar
  60. OECD/CERI. (2007). Evidence in education: Linking research and policy. Paris: OECD.Google Scholar
  61. OECD-PISA. (2000). Schülerleistungen im internationalen Vergleich. Berlin: Max-Planck-Institut für Bildungsforschung.Google Scholar
  62. Park, V., & Datnow, A. (2009). Co-constructing distributed leadership: District and school connections in data-driven decision-making. School Leadership and Management, 29, 477–494.CrossRefGoogle Scholar
  63. Pollitt, C. (2006a). Performance management in practice: A comparative study of executive agencies. Journal of Public Administration Research and Theory, 16, 25–44.CrossRefGoogle Scholar
  64. Pollitt, C. (2006b). Performance information for democracy: The missing link? Evaluation, 12, 38–55.CrossRefGoogle Scholar
  65. Pollitt, C., & Bouckaert, G. (2004). Public management reform: A comparative analysis. Oxford: Oxford University Press.Google Scholar
  66. Pollitt, C., & O’Neill, H. (1999). An Evaluation of the process of evaluation of EC external aid programmes. Brüssel: European Commission.Google Scholar
  67. Propper, C., & Wilson, D. (2003). The use and usefulness of performance measures in the public sector. CMPO Working Paper Series 03/073. Bristol: University.Google Scholar
  68. Rich, R. F. (1977). Uses of social science information by federal bureaucrats. In C. H. Weiss (Hrsg.), Using social research in public policy making (S. 199–211). Lexington: Lexington Books.Google Scholar
  69. Rich, R. F., & Oh, C. H. (2000). Rationality and use of information in policy decisions. Science Communication, 22, 173–211.CrossRefGoogle Scholar
  70. Scheerens, J., Glas, C., & Thomas, S. M. (2003). Educational evaluation, assessment, and monitoring. Lisse: Swets & Zetlinger.Google Scholar
  71. Schimank, U. (2009). Planung – Steuerung – Governance: Metamorphosen politischer Gesellschaftsgestaltung. Die Deutsche Schule, 101(3), 231–239.Google Scholar
  72. Shulha, L. M., & Cousins, J. B. (1997). Evaluation use: Theory, research, and practice since 1986. American Journal of Evaluation, 18, 195–208.CrossRefGoogle Scholar
  73. Spillane, J. P. (1998). State policy and the non-monolithic nature of the local school district. American Educational Research Journal, 35, 33–63.CrossRefGoogle Scholar
  74. Spillane, J. P., & Jennings, N. E. (1997). Aligned instructional policy and ambitious pedagogy. Teachers College Record, 98, 439–481.Google Scholar
  75. Spillane, J. P., Reiser, B. J., & Reimer, T. (2002). Policy implementation and cognition: Reframing and refocusing implementation research. Review of Educational Research, 72, 387–431.CrossRefGoogle Scholar
  76. Stryck, T. (2000). Qualitätssicherung in der Geisterbahn. Was hat die Schulaufsicht mit Schulqualität zu tun? Zeitschrift für Pädagogik, 41(Beiheft), 111–128.Google Scholar
  77. Tillmann, K.-J., Dedering, K., Kneuper, D., Kuhlmann, C., & Nessel, I. (2008). PISA als bildungspolitisches Ereignis. Wiesbaden: VS Verlag für Sozialwissenschaften.CrossRefGoogle Scholar
  78. Weiss, C. H. (1980). Knowledge creep and decision accretion. Knowledge: Creation, Diffusion, Utilization, 1, 381–404.Google Scholar
  79. Weiss, C. H., & Bucuvalas, M. J. (1977). The challenge of social research to decision making. In C. H. Weiss (Hrsg.), Using social research in public policy making (S. 213–233). Lexington: Lexington Books.Google Scholar
  80. Wilson, D. N. (1999). The utilization of research and information in educational decisionmaking. In W. Rokicka (Hrsg.), Educational documentation, research and decision-making (S. 41–77). Paris: International Bureau of Education – UNESCO.Google Scholar
  81. Wiseman, A. W. (2010). The uses of evidence for educational policymaking: global contexts and international trends. Review of Research in Education, 34(1), 1–24.CrossRefGoogle Scholar
  82. Wohlstetter, P., Datnow, A., & Park, V. (2008). Creating a system for data-driven decision-making: Applying the principal-agent framework. School Effectiveness and and School Improvement, 19, 239–259.CrossRefGoogle Scholar

Copyright information

© Springer Fachmedien Wiesbaden 2016

Authors and Affiliations

  1. 1.Erziehungswissenschaftliche FakultätUniversität ErfurtErfurtDeutschland

Personalised recommendations