Advertisement

Schul- und Unterrichtsentwicklung durch Datenrückmeldung

  • Herbert AltrichterEmail author
  • Robert Moosbrugger
  • Julia Zuber
Chapter
Part of the Educational Governance book series (EDUGOV, volume 7)

Zusammenfassung

Ein Charakteristikum von Vorschlägen zu einem „neuen Steuerungsmodell“ im Schulsystem besteht in der Idee, dass durch die Erhebung besserer Informationen über die Ergebnisse („Output“) der schulischen Tätigkeit und durch „Datenrückmeldung“ an relevante Akteure eine zielgerichtete und effiziente Entwicklung in Richtung erhöhter Qualität erreicht werden kann. Das vorliegende Kapitel befasst sich mit den Bedingungen und Möglichkeiten dieses Rückmeldemechanismus für die Schul- und Unterrichtsebene. Nach der Definition der zentralen Begriffe und einer Darstellung der aktuellen Verbreitung dieser Steuerungsvorstellungen in den deutschsprachigen Schulsystemen in Abschn. 1 werden in Abschn. 2 bisherige Erfahrungen mit Unterrichtsentwicklung durch Datenfeedback, wie sie in Forschungsarbeiten und Entwicklungsprojekten dokumentiert sind, zusammengetragen und in Hinblick auf die Wirksamkeit dieses Steuerungselements interpretiert. Abschn. 3 fasst die Hauptaussagen zusammen und stellt einige Konsequenzen für Bildungsforschung und Bildungspolitik zur Diskussion.

Schlüselwörter

Datenrückmeldung Feedback Leistungsmessung Governance Implementation Schulentwicklung Evidenzbasierte Steuerung 

Literatur

  1. Ackeren, I. v. (2003). Evaluation, Rückmeldung und Schulentwicklung. Erfahrungen mit zentralen Tests, Prüfungen und Inspektionen in England, Frankreich und den Niederlanden. Münster: Waxmann.Google Scholar
  2. Ackeren, I. v. (2007). Nutzung großflächiger Tests für die Schulentwicklung: Exemplarische Analyse der Erfahrungen aus England, Frankreich und den Niederlanden. Bildungsforschung (Bd. 3). Bonn: BMBF. http://www.bmbf.de/pub/nutzung_grossflaechiger_tests_fd_schulentwicklung.pdf. Zugegriffen: 12. Sept. 2009.
  3. Aiglsdorfer, B., & Aigner, M. (2005). Implementierung nationaler Bildungsstandards in Österreich. Untersuchung zur Einführung der nationalen Bildungsstandards an ausgewählten Hauptschulen der Pilotphase II. Unveröffentlichte Diplomarbeit. Johannes Kepler Universität Linz.Google Scholar
  4. Altrichter, H. (2008). Veränderungen der Systemsteuerung im Schulwesen durch die Implementation einer Politik der Bildungsstandards. In T. Brüsemeister & K.-D. Eubel (Hrsg.), Evaluation, Wissen und Nichtwissen (S. 75–116). Wiesbaden: VS Verlag für Sozialwissenschaften.CrossRefGoogle Scholar
  5. Altrichter, H., & Geisler, B. (2012). Unterrichtsentwicklung in Zeiten der Systemreform. Schweizerische Zeitschrift für Bildungswissenschaften, 34, 71–95.Google Scholar
  6. Altrichter, H., & Posch, P. (1999). Wege zur Schulqualität. Innsbruck: StudienVerlag.Google Scholar
  7. Altrichter, H., & Posch, P. (2007). Lehrerinnen und Lehrer erforschen ihren Unterricht (4. Aufl.). Bad Heilbrunn: Klinkhardt.Google Scholar
  8. Arnold, K.-H. (2007). Bildungspolitische, diagnostische und didaktische Bedingungen und Wirkungen von Schulleistungsevaluationen. Empirische Pädagogik, 21, 448–457.Google Scholar
  9. Asbrand, B., Heller, N., & Zeitler, S. (2012). Die Arbeit mit Bildungsstandards in Fachkonferenzen. Ergebnisse aus der Evaluation des KMK-Projekts for.mat. Die Deutsche Schule, 104, 31–43.Google Scholar
  10. Bach, A., Wurster, S., Thillmann, K., Pant, H. A., & Thiel, F. (2014). Vergleichsarbeiten und schulische Personalentwicklung – Ausmaß und Voraussetzungen der Datennutzung. Zeitschrift für Erziehungswissenschaft, 17, 61–84.CrossRefGoogle Scholar
  11. Baeriswyl, F., Wandeler, C., Trautwein, U., & Oswald, K. (2006). Leistungstests, Offenheit von Bildungsgängen und obligatorische Beratung der Eltern. Zeitschrift für Erziehungswissenschaft, 9, 371–392.CrossRefGoogle Scholar
  12. Ball, S. J. (1997/2006). Policy sociology and critical social research. In S. J. Ball (Hrsg.), Education policy and social class (S. 9–25). London: Routledge.Google Scholar
  13. Baumert, J. (2001). Vergleichende Leistungsmessung im Bildungsbereich. Zeitschrift für Pädagogik, 41. Beiheft, 13–36.Google Scholar
  14. Beck, U., & Bonß, W. (Hrsg.). (1989). Weder Sozialtechnologie noch Aufklärung? Analysen zur Verwendung sozialwissenschaftlichen Wissens. Frankfurt a. M.: Suhrkamp.Google Scholar
  15. Bellmann, J., & Weiß, M. (2009). Risiken und Nebenwirkungen neuer Steuerung im Schulsystem. Zeitschrift für Pädagogik, 55, 286–308.Google Scholar
  16. Berkemeyer, N., & Holt, N. (2012). Leistungsrückmeldungen im Längsschnitt – Erste Erfahrungen mit dem Schüler-Monitoring System (SMS ). In A. Wacker, U. Maier, & J. Wissinger (Hrsg.), Schul- und Unterrichtsreform durch ergebnisorientierte Steuerung. Wiesbaen: VS Verlag für Sozialwissenschaften.Google Scholar
  17. Bernhardt, V. L. (2003). Using data to improve student learning in elementary schools. Larchmont: Eye on Education.Google Scholar
  18. Black, P., & Wiliam, D. (1998). Assessment and classroom learning. Assessment in Education, 5(1), 7–74.CrossRefGoogle Scholar
  19. Bonsen, M., & Gathen, J. (2004). Schulentwicklung und Testdaten. Die innerschulische Verarbeitung von Leistungsrückmeldungen. In H. G. Holtappels, K. Klemm, H. Pfeiffer, H.-G. Rolff, & R. Schulz-Zander (Hrsg.), Jahrbuch der Schulentwicklung (Bd. 13, S. 225–252). Weinheim: Juventa.Google Scholar
  20. Bonsen, M., Büchter, A., & Peek, R. (2006). Datengestützte Schul- und Unterrichtsentwicklung. In W. Bos, H. G. Holtappels, H. Pfeiffer, H.-G. Rolff, & R. Schulz-Zander (Hrsg.), Jahrbuch der Schulentwicklung (Bd. 14, S. 125–148). Weinheim: Juventa.Google Scholar
  21. Breiter, A. (2008). Datengestützte Schulentwicklung – internationale Forschung und praktische Anwendungen. Die Deutsche Schule, 100, 217–220.Google Scholar
  22. Breiter, A., & Stauke, E. (2007). Anforderungen an elektronische Rückmeldesysteme aus Nutzersicht. Empirische Pädagogik, 21, 383–400.Google Scholar
  23. Brunner, C., & Light, D. (2008). From knowledge management to data-driven instructional decision-making in schools: The missing link. In A. Breiter, A. Lange, & E. Stauke (Hrsg.), School information systems and data-based decision-making (S. 37–47). Frankfurt a. M.: Peter Lang.Google Scholar
  24. Coe, R. (2002). Evidence on the role and impact of performance feedback in schools. In A. J. Visscher & R. Coe (Hrsg.), School improvement through performance feedback (S. 3–26). Lisse: Swets & Zeitlinger.Google Scholar
  25. Dalin, P., Rolff, H.-G., & Buchen, H. (1996). Institutioneller Schulentwicklungsprozess. Bönen: Kettler.Google Scholar
  26. Darling-Hammond, L. (2004). Standards, accountability and school reform. Teachers College Record, 106(6), 1047–1085.CrossRefGoogle Scholar
  27. DeBray, E., Parson, G., & Woodworth, K. (2001). Patterns of response in four high schools under state accountability policies in Vermont and New York. In S. H. Fuhrman (Hrsg.), From the capitol to the classroom: Standards-based reform in the states (S. 170–192). Chicago: University of Chicago Press.Google Scholar
  28. Demski, D., Rosenbusch, C., van Ackeren, I., Clausen, M., & Schmidt, U. (2012). Steuerung von Schule durch evidenzbasierte Einsicht? In S. Hornberg & M. Parreira do Amaral (Hrsg.), Deregulierung im Bildungswesen (S. 131–150). Münster: Waxmann.Google Scholar
  29. Ditton, H., & Arnoldt, B. (2004). Schülerbefragungen zum Fachunterricht – Feedback an Lehrkräfte. Empirische Pädagogik, 18, 115–139.Google Scholar
  30. Ditton, H., Merz, D., & Edelhäusser, T. (2002). Einstellungen von Lehrkräften und Schulleiter/innen zu zentralen Testuntersuchungen an Schulen. Empirische Pädagogik, 16, 17–33.Google Scholar
  31. Drüke-Noe, T., Keller, K., & Blum, W. (2008). Bildungsstandards – Motor für Unterrichtsentwicklung und Lehrerbildung? Beiträge zur Lehrerbildung, 26, 372–382.Google Scholar
  32. Dubs, R. (2006). Bildungsstandards: Das Problem der schulpraktischen Umsetzung. Netzwerk – Die Zeitschrift für Wirtschaftsbildung, 1, 18–29.Google Scholar
  33. EMSE (Netzwerk empirische Schulentwicklung). (2006). Zentrale standardisierte Lernstandserhebungen. Positionspapier verabschiedet auf der 5. EMSE-Fachtagung am 8. Dezember 2006 in Berlin.Google Scholar
  34. EMSE (Netzwerk empirische Schulentwicklung). (2008). Nutzung und Nutzen von Schulrückmeldungen im Rahmen standardisierter Lernstandserhebungen/Vergleichsarbeiten. 2. Positionspapier verabschiedet auf der 9. EMSE-Fachtagung vom 16.–17. Dezember 2008 in Nürnberg.Google Scholar
  35. Feldman, M. S., & March, J. G. (1988). Information in organizations as signal and symbol. In J. G. March (Hrsg.), Decisions and organizations (S. 409–428). Oxford: Basil Blackwell.Google Scholar
  36. Fend, H. (2000). Qualität und Qualitätssicherung im Bildungswesen: Wohlfahrtsstaatliche Modelle und Marktmodelle. Zeitschrift für Pädagogik, 41. Beiheft, 55–72.Google Scholar
  37. Fend, H. (2008). Die Bedeutung von Bildungsstandards im Kontext von Educational Governance. Beiträge zur Lehrerbildung, 26, 292–303.Google Scholar
  38. Freudenthaler, H. H., & Specht, W. (2005). Bildungsstandards aus Sicht der Anwender. Evaluation der Pilotphase I zur Umsetzung nationaler Bildungsstandards in der Sekundarstufe I. ZSE-Report Nr. 69. Graz: ZSE.Google Scholar
  39. Freudenthaler, H. H., & Specht, W. (2006). Bildungsstandards: Der Implementationsprozess aus der Sicht der Praxis. Graz: ZSE.Google Scholar
  40. Freudenthaler, H. H., Specht, W., & Paechter, M. (2004). Von der Entwicklung zur Akzeptanz und professionellen Nutzung nationaler Bildungsstandards. Erziehung und Unterricht, 154(7/8), 606–612.Google Scholar
  41. Gärtner, H., Füsemann, D., & Pant, H. A. (2009). Wirkungen von Schulinspektion aus Sicht betroffener Schulleitungen. Empirische Pädagogik, 23, 1–18.Google Scholar
  42. Gathen, J. (2006). Grenzen der innerschulischen Rezeption von Rückmeldungen aus Large-Scale-Assessments. Journal für Schulentwicklung, 10(4), 13–19.Google Scholar
  43. Gathen, J. (2011). Leistungsrückmeldungen bei Large-Scale-Assessements und Vollerhebungen. Rezeption und Nutzung am Beispiel von DESI und lernstand. Münster: Waxmann.Google Scholar
  44. Gorry, G. A., & Scott Morton, M. S. (1971). A framework for management information systems. Sloane Management Review, 13, 55–70.Google Scholar
  45. Grabensberger, E., Freudenthaler, H. H., & Specht, W. (2008). Bildungsstandards: Testungen und Ergebnisrückmeldungen auf der achten Schulstufe aus der Sicht der Praxis. Graz: bifie.Google Scholar
  46. Groeben, A. (2005). Aus Falschem folgt Falsches – Wie Standards zum pädagogischen Bumerang werden können. In G. Becker, A. Bremerich-Vos, M. Demmer, K. Maag Merki, B. Priebe, K. Schwippert, L. Stäudel, & K.-J. Tillmann (Hrsg.), Standards. Friedrich Jahresheft 2005 (S. 78–79). Seelze: Friedrich.Google Scholar
  47. Groß Ophoff, J. (2013). Lernstandserhebungen. Reflexion und Nutzung. Münster: Waxmann.Google Scholar
  48. Groß Ophoff, J., Koch, U., Helmke, A., & Hosenfeld, I. (2006). Vergleichsarbeiten für die Grundschule – und was diese daraus machen (können). Journal für Schulentwicklung, 10(4), 7–12.Google Scholar
  49. Groß Ophoff, J., Hosenfeld, I., & Koch, U. (2007). Formen der Ergebnisrezeption und damit verbundene Schul- und Unterrichtsentwicklung. Empirische Pädagogik, 21, 411–427.Google Scholar
  50. Halbheer, U., & Reusser, K. (2008). Output-Steuerung, Accountability, Educational Governance – Einführung in die Geschichte, Begrifflichkeiten und Funktionen von Bildungsstandards. Beiträge zur Lehrerbildung, 26, 253–266.Google Scholar
  51. Hartung-Beck, V. (2009). Schulische Organisationsentwicklung und Professionalisierung. Folgen von Lernstandserhebungen an Gesamtschulen. Wiesbaden: VS Verlag für Sozialwissenschaften.CrossRefGoogle Scholar
  52. Hattie, J., & Timperley, H. (2007). The power of feedback. Review of Educational Research, 77(1), 81–112.CrossRefGoogle Scholar
  53. Heinrich, M., & Altrichter, H. (2008). Schulentwicklung und Profession. Der Einfluss von Initiativen zur Modernisierung der Schule auf die Lehrerprofession. In W. Helsper, S. Busse, M. Hummrich, & R.-T. Kramer (Hrsg.), Pädagogische Professionalität in Organisationen (S. 205–221). Wiesbaden: VS Verlag für Sozialwissenschaften.CrossRefGoogle Scholar
  54. Helmke, A. (2004). Von der Evaluation zur Innovation: Pädagogische Nutzbarmachung von Vergleichsarbeiten in der Grundschule. Seminar, 2, 90–112.Google Scholar
  55. Helmke, A., & Hosenfeld, I. (2005). Standardbezogene Unterrichtsentwicklung. In G. Brägger, B. Bucher, & N. Landwehr (Hrsg.), Schlüsselfragen zur externen Schulevaluation (S. 127–152). Bern: h. e. p.Google Scholar
  56. Herzog, W. (2009). Besserer Unterricht durch Bildungsstandards und Kompetenzmodelle? Vortrag bei der Tagung der DGfE-Kommissionen Schul- und Professionsforschung an der PH Heidelberg vom 25. bis 27. März 2009.Google Scholar
  57. Hölzl, L., & Rixinger, G. (2007). Implementierung von Bildungsstandards in Österreich – das zweite Jahr. Dokumentation des Entwicklungsprozesses der Pilotphase II in zwei österreichischen Hauptschulen. Unveröffentlichte Diplomarbeit. Johannes Kepler Universität Linz.Google Scholar
  58. Hosenfeld, I. (2005). Rezeption – Reflexion – Aktion. Wie lassen sich Lernstandserhebungen und Vergleichsarbeiten pädagogisch nutzen? In G. Becker, A. Bremerich-Vos, M. Demmer, K. Maag Merki, B. Priebe, K. Schwippert, L. Stäudel, & K.-J. Tillmann (Hrsg.), Standards. Friedrich Jahresheft 2005 (S. 112–114). Seelze: Friedrich.Google Scholar
  59. Hosenfeld, A. (2010). Führt Unterrichtsrückmeldung zu Unterrichtsentwicklung? Die Wirkung von videographischer und schriftlicher Rückmeldung bei Lehrkräften der vierten Jahrgangsstufe. Empirische Erziehungswissenschaft (Bd. 22). Münster: Waxmann.Google Scholar
  60. Hosenfeld, I., & Groß Ophoff, J. (2007). Nutzung und Nutzen von Evaluationsstudien in Schule und Unterricht. Empirische Pädagogik, 21, 352–367.Google Scholar
  61. Hosenfeld, I., Groß Ophoff, J. & Bittins, P. (2006). Vergleichsarbeiten und Schulentwicklung. (Schulmanagement-Handbuch, Vol. 118). München: Oldenbourg Schulbuchverlag.Google Scholar
  62. Hosenfeld, I., Groß Ophoff, J., & Koch, U. (2007). Vergleichsarbeiten in Klassenstufe 3 („VERA 3“) – Konzept und empirische Befunde zum Umgang mit den Ergebnisrückmeldungen in den Schulen. Präsentation bei der 7. Tagung „Empiriegestützte Schulentwicklung“ in Mainz. Landau: Universität Koblenz-Landau.Google Scholar
  63. Ingram, D., Seashore Louis, K., & Schroeder, R. G. (2004). Accountability policies and teacher decision making: Barriers to the use of data to improve practice. Teachers College Record, 106(6), 1258–1287.CrossRefGoogle Scholar
  64. Klieme, E. (2004). Begründung, Implementation und Wirkung von Bildungsstandards. Zeitschrift für Pädagogik, 50, 625–634.Google Scholar
  65. Klug, C., & Reh, S. (2000). Was fangen die Schulen mit den Ergebnissen an? PÄDAGOGIK, 52(12), 16–21.Google Scholar
  66. Kluger, A. N., & DeNisi, A. (1996). The effects of feedback interventions on performance: A historical review, a meta-analysis, and a preliminary feedback intervention theory. Psychological Bulletin, 119(2), 254–284.CrossRefGoogle Scholar
  67. Koch, U. (2011). Verstehen Lehrkräfte Rückmeldungen aus Vergleichsarbeiten? Datenkompetenz von Lehrkräften und die Nutzung von Ergebnisrückmeldungen aus Vergleichsarbeiten. Münster: Waxmann.Google Scholar
  68. Kohler, B. (2002). Zur Rezeption von TIMSS durch Lehrerinnen und Lehrer. Unterrichtswissenschaft, 30(2), 158–188.Google Scholar
  69. Kohler, B., & Schrader, F.-W. (2004). Ergebnisrückmeldung und Rezeption: Von der externen Evaluation zur Entwicklung von Schule und Unterricht. Empirische Pädagogik, 18, 3–17.Google Scholar
  70. Kühle, B., & Peek, R. (2007). Lernstandserhebungen in Nordrhein Westfalen. Evaluationsbefunde zur Rezeption und zum Umgang mit Ergebnisrückmeldungen in Schulen. Empirische Pädagogik, 21, 428–447.Google Scholar
  71. Kuper, H. (2005). Evaluation im Bildungssystem. Stuttgart: Kohlhammer.Google Scholar
  72. Kuper, H., & Hartung, V. (2007). Überzeugungen zur Verwendung des Wissens aus Lernstandserhebungen. Zeitschrift für Erziehungswissenschaft, 10, 214–229.CrossRefGoogle Scholar
  73. Leutner, D., Fleischer, J., Spoden, C., & Wirth, J. (2007). Schulrückmeldungen in landesweiten Lernstandserhebungen – Das Beispiel Lernstand 8 in NRW. Präsentation bei der 7. Tagung „Empiriegestützte Schulentwicklung“ in Mainz. Landau: Universität Koblenz-Landau.Google Scholar
  74. Light, D., Honey, M., Heinze, J., Brunner, C., Wexlar, D., Mandinach, E., et al. (2005). Linking data and learning – The grow network study. New York: EDC’s Center for Children and Technology.Google Scholar
  75. Lucyshyn, J. (2004). Bildungsstandards – Ein weiterer Qualitätssprung für das österreichische Bildungswesen. Unv. Ms. Salzburg.Google Scholar
  76. Lucyshyn, J. (2006). Implementation von Bildungsstandards in Österreich. Projektmanagement Bildungsstandards. Salzburg: BMBWK.Google Scholar
  77. Maier, U. (2006). Können Vergleichsarbeiten einen Beitrag zur Schulentwicklung leisten? Journal für Schulentwicklung, 10(4), 20–28.Google Scholar
  78. Maier, U. (2007). Lehrereinschätzungen zu zentralen Tests und Leistungsrückmeldungen – Ein Vergleich zwischen Baden-Württemberg und Thüringen. Präsentation bei der 7. Tagung „Empiriegestützte Schulentwicklung“ in Mainz. Landau: Universität Koblenz-Landau.Google Scholar
  79. Maier, U. (2008). Rezeption und Nutzung von Vergleichsarbeiten aus der Perspektive von Lehrkräften. Zeitschrift für Pädagogik, 54, 95–117.Google Scholar
  80. Maier, U. (2009). Testen und dann? – Ergebnisse einer qualitativen Lehrerbefragung zur individualdiagnostischen Funktion von Vergleichsarbeiten. Empirische Pädagogik, 23, 191–207.Google Scholar
  81. Maier, U., & Kuper, H. (2012). Vergleichsarbeiten als Instrumente der Qualitätsentwicklung an Schulen. Überblick und Forschungsstand. Die Deutsche Schule, 104, 88–99.Google Scholar
  82. Maier, U., Metz, K., Bohl, T., Kleinknecht, M., & Schymala, M. (2012). Vergleichsarbeiten als Instrument der datenbasierten Schul- und Unterrichtsentwicklung in Gymnasien. In A. Wacker, U. Maier, & J. Wissinger (Hrsg.), Schul- und Unterrichtsreform durch ergebnisorientierte Steuerung (S. 179–224). Wiesbaden: VS Verlag für sozialwissenschaften.Google Scholar
  83. Maier, U., Ramsteck, C., & Frühwacht, A. (2013). Lehr-lerntheoretische Argumentationsmuster bei der Interpretation und Nutzung von Vergleichsarbeitsrückmeldungen durch Gymnasiallehrkräfte. In I. Ackeren, M. Heinrich, & F. Thiel (Hrsg.), Evidenzbasierte Steuerung im Bildungssystem? (S. 74–96). Münster: Waxmann.Google Scholar
  84. Merkens, H. (2007). Rückmeldungen von Schülerleistungen als Instrument der Schulentwicklung und der Unterrichtsverbesserung. In D. Benner (Hrsg.), Bildungsstandards (S. 83–101). Paderborn: Schöningh.Google Scholar
  85. Miller, G. A., Galanter, E., & Pribram, K. H. (1960). Plans and the structure of behavior. New York: Holt, Rinehart & Winston. (dt. Miller, G. A., Galanter, E., & Pribram, K. H. (1973). Strategien des Handelns. Pläne und Strukturen des Verhaltens. Stuttgart: Klett).CrossRefGoogle Scholar
  86. Moser, U. (2003). Klassencockpit im Kanton Zürich – Bericht einer Befragung von Lehrerinnen und Lehrern der 6. Klassen über ihre Erfahrungen im Rahmen der Erprobung von Klassencockpit im Schuljahr 2002/2003. Bildungsdirektion des Kantons Zürich. Kompetenzzentrum für Bildungsevaluation und Leistungsmessung an der Universität Zürich. http://www.ibe.uzh.ch/entwicklung/klassencockpit/Evaluation_Klassencockpit.pdf. Zugegriffen: 9. Sept. 2009.
  87. Moser, U., & Hollenweger, J. (Hrsg.). (2008). Drei Jahre danach. Lesen, Wortschatz, Mathematik und soziale Kompetenzen am Ende der dritten Klasse. Oberentfelden: Sauerländer.Google Scholar
  88. Müller, A. (2009). Bezugsnormen in klassenbezogenen Ergebnisrückmeldungen. Empirische Pädagogik, 23, 50–74.Google Scholar
  89. Muslic, B., Ramsteck, C., & Kuper, H. (2013). Das Verhältnis von Schulleitung und Schulaufsicht im Kontext testbasierter Schulreform. In I. Ackeren, M. Heinrich, & F. Thiel (Hrsg.), Evidenzbasierte Steuerung im Bildungssystem? (S. 97–120). Münster: Waxmann.Google Scholar
  90. Nachtigall, C. (2005). Landesbericht – Thüringer Kompetenztest 2005. Jena: Friedrich-Schiller-Universität.Google Scholar
  91. Nachtigall, C., & Hellrung, K. (2013). Zur zeitlichen Entwicklung der Rezeption von Vergleichsarbeiten. Empirische Pädagogik, 27, 423–441.Google Scholar
  92. Nachtigall, C., & Jantowski, A. (2007). Die Thüringer Kompetenztests unter besonderer Berücksichtigung der Evaluationsergebnisse zum Rezeptionsverhalten. Empirische Pädagogik, 21, 401–410.Google Scholar
  93. Nichols, S. L., & Berliner, D. C. (2007). Collateral damage. How hig-stakes testing corrupts America’s schools. Cambridge: Harvard Education Press.Google Scholar
  94. Nilshon, I. (2004). Qualitätssicherung auf der Grundlage von System-Monitoring. 6 Fallstudien an Brandenburger Gymnasien (Projekt QuaSUM 3). In Ministerium für Bildung, Jugend und Sport des Landes Brandenburg (Hrsg.), Schulrückmeldungen von Schulleistungsstudien am Beispiel des QuaSUM-Projekts (S. 1–52). Potsdam: MBJS.Google Scholar
  95. O’Day, J. A. (2004). Complexity, accountability, and school improvement. In S. H. Fuhrman & R. F. Elmore (Hrsg.), Redesigning accountability systems for education (S. 15–43). New York: Teachers College Press.Google Scholar
  96. Oelkers, J. (2008). Schulentwicklung in Deutschland und die Bedeutung der Selbstevaluation. Vortrag bei der Tagung „Von Daten zu Taten – SEIS als Motor der Schulentwicklung“ am 11. September 2008 in Berlin.Google Scholar
  97. Oelkers, J., & Reusser, K. (2008). Qualität entwickeln – Standards sichern – mit Differenz umgehen. Berlin: Bundesministerium für Bildung und Forschung.Google Scholar
  98. Peek, R. (2004). Qualitätsuntersuchung an Schulen zum Unterricht in Mathematik (QuaSUM) – Klassenbezogene Ergebnisrückmeldung und ihre Rezeption in Brandenburger Schulen. Empirische Pädagogik, 18, 82–114.Google Scholar
  99. Peek, R. (2006). Dateninduzierte Schulentwicklung. In H. Buchen & H.-G. Rolff (Hrsg.), Professionswissen Schulleitung (S. 1343–1366). Weinheim: Beltz.Google Scholar
  100. Pöhlmann, C. (2009). Einführung von Standards – psychologische Komponenten von Änderungsprozessen. Referat bei der Tagung „Standards im Bildungsbereich – Anspruch und Realität“ der Österr. Forschungsgemeinschaft vom 11.–12.Mai 2009 in Wien.Google Scholar
  101. Pont, B., Nusche, D., & Moorman, H. (2008). Improving school leadership. Volume 1: Policy and practice. Paris: OECD.Google Scholar
  102. Posch, P. (2009). Zur schulpraktischen Nutzung von Daten: Konzepte, Strategien, Erfahrungen. Die Deutsche Schule, 101, 119–135. (zit. nach dem Ms.).Google Scholar
  103. Rieß, C., & Bruneforth, M. (2015). BIST-Begleitforschung 1/2015: Rezeption und Nutzung von Ergebnissen aus den Bildungsstandardüberprüfungen 2013. Ergebnisse der Befragung von Mitgliedern der Schulaufsicht. Salzburg: bifie.Google Scholar
  104. Rieß, C., & Zuber, J. (2014). Rezeption und Nutzung von Ergebnissen der Bildungsstandardüberprüfung in Mathematik auf der 8. Schulstufe unter Berücksichtigung der Rückmeldemoderation. BIFIE-Report 2/2014. https://www.bifie.at/node/2658. Zugegriffen: 1. Dez. 2014.
  105. Riffert, F., & Paschon, A. (2005). Selbstevaluation von Schulentwicklungsprojekten. Der Modulansatz MSS. Münster: Lit.Google Scholar
  106. Rogers, E. M. (1995). Diffusion of innovations. New York: The Free Press.Google Scholar
  107. Rolff, H.-G. (2002). Rückmeldung und Nutzung der Ergebnisse von großflächigen Leistungsuntersuchungen. In H.-G. Rolff, H. G. Holtappels, K. Klemm, H. Pfeiffer, & R. Schulz-Zander (Hrsg.), Jahrbuch der Schulentwicklung (Bd. 12, S. 75–98). Weinheim: Juventa.Google Scholar
  108. Ryan, R. N., & Sapp, A. (2005). Zum Einfluss testbasierter Reformen: High Stakes Testing. Unterrichtswissenschaft, 33(2), 143–159.Google Scholar
  109. Schildkamp, K. (2007). The utilisation of self-evaluation instrument for primary education. Thesis. University of Twente.Google Scholar
  110. Schildkamp, K., & Ehren, M. C. M. (2012). From „Intuition“- to „Data“-based decision making in Dutch secondary schools? In K. Schildkamp, M. Lai, & L. Earl (Hrsg.), Data-based decision making in education: Challenges and opportunities (S. 49–67). Dordrecht: Springer.Google Scholar
  111. Schildkamp, K., & Kuiper, W. (2009). Data-informed curriculum reform: Which data, what purposes, and promoting and hindering factors. Teaching and Teacher Education, 26, 482–496.CrossRefGoogle Scholar
  112. Schildkamp, K., Visscher, A., & Luyten, H. (2009). The effects of the use of a school self-evaluation instrument. School Effectiveness and School Improvement, 20, 69–88.CrossRefGoogle Scholar
  113. Schimank, U. (2014). Governance und Professionalisierung. Notizen zu einem Desiderat. In K. Maag Merki, R. Langer, & H. Altrichter (Hrsg.), Educational Governance als Forschungsperspektive (2. Aufl., S. 127–150). Wiesbaden: VS Verlag für Sozialwissenschaften.CrossRefGoogle Scholar
  114. Schluga, A. (2006). Die Implementierung der österreichischen Bildungsstandards. Akzeptanz und Umsetzungsbereitschaft am Beispiel von Tiroler Grundschulen. Unveröffentlichte Diplomarbeit. Universität Innsbruck.Google Scholar
  115. Schmoker, M. (2003). First things first: Demystifying data analysis. Educational Leadership, 60(5), 22–24.Google Scholar
  116. Schneewind, J. (2007a). Wie Lehrkräfte mit Ergebnisrückmeldungen aus Schulleistungsstudien umgehen. Ergebnisse aus Befragungen von Berliner Grundschullehrerinnen. Berlin: Freie Universität. http://www.diss.fu-berlin.de/diss/receive/FUDISS_thesis_000000002819. Zugegriffen: 20. April 2009.Google Scholar
  117. Schneewind, J. (2007b). Erfahrungen mit Ergebnisrückmeldungen im Projekt BeLesen – Ergebnisse der Interviewstudie. Empirische Pädagogik, 21, 368–382.Google Scholar
  118. Schneewind, J., & Kuper, H. (2008). Rückmeldeformate und Verwendungsmöglichkeiten der Ergebnisse aus zentralen Lernstandserhebungen. Dokumentation zum Symposion „Lernen aus Evaluationsergebnissen – Verbesserungen planen und implementieren“ (S. 18–29) im Rahmen der didacta vom 20.–21. Februar 2008 in Stuttgart.Google Scholar
  119. Schrader, F.-W., & Helmke, A. (2003). Evaluation – und was danach? Schweizerische Zeitschrift für Bildungswissenschaft, 25(1), 79–110. (zit. nach dem Ms.).Google Scholar
  120. Schrader, F.-W., & Helmke, A. (2004a). Von der Evaluation zur Innovation? Empirische Pädagogik, 18, 140–161.Google Scholar
  121. Schrader, F.-W., & Helmke, A. (2004b). MARKUS und die Folgen. In R. S. Jäger, A. Frey, & M. Wosnitza (Hrsg.), Lernprozesse, Lernumgebung und Lerndiagnostik (S. 413–427). Landau: Verlag Empirische Pädagogik.Google Scholar
  122. Schulze, F. (2012). Folgen zentraler Lernstandserhebungen. Unterscheiden sich Lehrkräfte in der Auseinandersetzung mit Lernstandserhebungen? Die Deutsche Schule, 104, 43–56.Google Scholar
  123. Schwippert, K. (2004). Leistungsrückmeldungen an Grundschulen im Rahmen der internationalen Grundschul-Lese-Untersuchung (IGLU). Empirische Pädagogik, 18, 62–81.Google Scholar
  124. SKBF (Schweizerische Koordinationsstelle für Bildungsforschung). (2006). Bildungsbericht Schweiz 2006. Aarau: SKBF.Google Scholar
  125. Specht, W. (2006). Von den Mühen der Ebene. Entwicklung und Implementation von Bildungsstandards in Österreich. In F. Eder, A. Gastager, & F. Hofmann (Hrsg.), Qualität durch Standards? (S. 13–37). Münster: Waxmann.Google Scholar
  126. Stamm, M. (2003). Evaluation und ihre Folgen für die Bildung. Münster: Waxmann.Google Scholar
  127. Steffens, U. (2009). Lernstandserhebungen in den deutschen Ländern – Probleme und Perspektiven. Unv. Ms. Wiesbaden: Institut für Qualitätsentwicklung.Google Scholar
  128. Steuergruppe des BMBWK. (2004). Bericht an die Frau Bundesministerin zur Einführung von Bildungsstandards in Österreich. Typoskript. Salzburg.Google Scholar
  129. Sydow, J., & Windeler, A. (2000). Steuerung von und in Netzwerken – Perspektiven, Konzepte, vor allem aber offene Fragen. In J. Sydow & A. Windeler (Hrsg.), Steuerung von Netzwerken (S. 1–24). Opladen: Westdeutscher.CrossRefGoogle Scholar
  130. Tresch, S. (2007). Potenzial Leistungstest. Wie Lehrerinnen und Lehrer Ergebnisrückmeldungen zur Sicherung und Steigerung ihrer Unterrichtsqualität nutzen. Bern: h. e. p.Google Scholar
  131. Tymms, P., & Albone, S. (2002). Performance indicators in primary schools. In A. J. Visscher & R. Coe (Hrsg.), School improvement through performance feedback (S. 191–218). Lisse: Swets & Zeitlinger.Google Scholar
  132. Visscher, A. J., & Coe, R. (Hrsg.). (2002). School improvement through performance feedback. London: Routledge.Google Scholar
  133. Visscher, A. J., & Coe, R. (2003). School performance feedback systems: Conceptualisation, Analysis and Reflection. School Effectiveness and School Improvement, 14(3), 321–349.CrossRefGoogle Scholar
  134. Watermann, R., & Stanat, P. (2004). Schulrückmeldungen in PISA 2000: Sozialnorm- und kriteriumsorientierte Rückmeldeverfahren. Empirische Pädagogik, 18, 40–61.Google Scholar
  135. Weiss, C. H. (1990a). Evaluation for decisions: Is anybody there? Does anybody care? In N. Alkin (Hrsg.), Debates on evaluation (S. 171–184). Newbury Park: Sage.Google Scholar
  136. Weiss, C. H. (1990b). If program decisions hinged only on information. In N. Alkin (Hrsg.), Debates on evaluation (S. 208–222). Newbury Park: Sage.Google Scholar
  137. Wurster, S., Richter, D., Schliesing, A., & Pant, H. A. (2013). Nutzung unterschiedlicher Evaluationsdaten an Berliner und Brandenburger Schulen. In I. van Ackeren, M. Heinrich, & F. Thiel (Hrsg.), Evidenzbasierte Steuerung im Bildungssystem? (S. 19–50). Münster: Waxmann.Google Scholar
  138. Zeitler, S., Heller, N., & Asbrand, B. (2012). Bildungsstandards in der Schule. Eine rekonstruktive Studie zur Implementation der Bildungsstandards. Münster: Waxmann.Google Scholar

Copyright information

© Springer Fachmedien Wiesbaden 2016

Authors and Affiliations

  • Herbert Altrichter
    • 1
    Email author
  • Robert Moosbrugger
    • 1
  • Julia Zuber
    • 1
  1. 1.Sozial- und Wirtschaftswissenschaftliche Fakultät, Institut für Pädagogik und PsychologieJohannes-Kepler-Universität LinzLinzÖsterreich

Personalised recommendations