Advertisement

Zeitschrift für Didaktik der Naturwissenschaften

, Volume 24, Issue 1, pp 151–165 | Cite as

Welche Rückmeldungen wirken am besten?

Ergebnisse einer empirischen Untersuchung von Rückmeldeformen beim Planen von Experimenten
  • Mathias RopohlEmail author
  • Hilda Scheuermann
Original Paper

Zusammenfassung

Wichtiges Lernziel in den Naturwissenschaften sind Denk- und Arbeitsweisen der Erkenntnisgewinnung. Diese Denk- und Arbeitsweisen gilt es im naturwissenschaftlichen Unterricht gezielt zu adressieren, damit Schülerinnen und Schüler eine naturwissenschaftliche Grundbildung erlangen können. Im Prozess der Erkenntnisgewinnung nimmt das Experimentieren als eine Denk- und Arbeitsweise eine wichtige Rolle ein, da anhand der aus einem Experiment gewonnenen Daten neue Erkenntnisse generiert werden können. Um anhand der gewonnenen Daten eindeutige Aussagen treffen zu können, muss die Variablenkontrollstrategie bereits bei der Planung des Experiments angewendet werden. Schülerinnen und Schüler haben jedoch Schwierigkeiten die Strategie anzuwenden und benötigen bei der Planung von Experimenten Unterstützung. Eine mögliche Unterstützungsmaßnahme stellen lernbegleitende Rückmeldungen dar. Im Hinblick auf die Wirkung von Rückmeldeformen auf das Planen von Experimenten liegen widersprüchliche Befunde vor. Ziel des vorliegenden Beitrags ist daher die Entwicklung und Evaluation von Rückmeldeformen als Unterstützungsmaßnahme zur Förderung der Anwendung der Variablenkontrollstrategie beim Planen von Experimenten. Die Maßnahme wurde anhand einer Interventionsstudie im Fach Chemie evaluiert. Dabei wurden lösungsprozessbezogene Rückmeldungen, lernstandbezogene Rückmeldungen und die Selbsteinschätzung als Rückmeldung kontrastiert. Die Rückmeldeformen unterscheiden sich hinsichtlich der Informationen zum Lernziel, zum Lernstand und zu den nächsten Lernschritten. Die Ergebnisse aus der Interventionsstudie belegen, dass die Rückmeldeform, die Informationen zum Lernziel, zum Lernstand und zu nächsten Lernschritten liefert, zum höchsten Lernertrag führt. In der Diskussion des Beitrags werden die Befunde in den derzeitigen Forschungsstand eingeordnet und Perspektiven für weitere Forschung aufgezeigt.

Schlüsselwörter

Forschendes Lernen Variablenkontrollstrategie Rückmeldungen Interventionsstudie 

Which Type of Feedback Works Best?

Analyzing the Effect of Different Feedback Types on Students Experimental Designs

Abstract

Scientific inquiry is an important approach for teaching and learning science. By doing inquiry new knowledge can be generated. However, students’ have to learn how to do inquiry. To plan an investigation is one important practice when doing inquiry. Only based on the results of a controlled investigation verified conclusions can be drawn. Thus, students have to apply the control-of-variable-strategy to their experimental plans. However, several difficulties were reported in previous studies that highlight the importance of giving students individual support during inquiry phases. One possible approach to support students’ is formative assessment and especially feedback. Its effect on students’ learning was subject of several studies that report inconsistent results. The aim of the presented work is the development and evaluation of different types of feedback that support the application of the control-of-variable-strategy when planning investigations. The effectiveness of different feedback types was evaluated by an intervention study in the field of chemistry education. Feedback that provides information about the learning goal, the current learning level and possible next steps in learning was compared with feedback that only provides information about the learning goal and the current learning level as well as with self-assessment. The results indicate that feedback focusing on the learning goal, the current learning level and next steps in learning is superior in comparison to the other two feedback types. In the discussion, the present results are related to the results of previous studies in this research field. Besides, perspectives for further research are highlighted.

Keywords

Scientific inquiry Control-of-variable-strategy Feedback Intervention study 

Notes

Förderung

Die Interventionsstudie wurde mit Mitteln des siebten Forschungsrahmenprogramms der Europäischen Kommission (FP7/2007-2013) unter der Fördernummer 321428 finanziert.

Supplementary material

40573_2018_80_MOESM1_ESM.pdf (107 kb)
Testaufgabe zur Erhebung der Kompetenz zum Planen eines Experiments
40573_2018_80_MOESM2_ESM.pdf (113 kb)
Beispielhafte Antwort für die Testaufgabe
40573_2018_80_MOESM3_ESM.pdf (67 kb)
Bewertungsschema für die Kompetenz zum Planen eines Experiments
40573_2018_80_MOESM4_ESM.pdf (68 kb)
Anwendung des Bewertungsschemas

Literatur

  1. Abd-el-Khalick, F., Boujaoude, S., Duschl, R., Lederman, N. G., Mamlok-Naaman, R., Hofstein, A., Tuan, H.-L., et al. (2004). Inquiry in science education: international perspectives. Science Education, 88(3), 397–419.CrossRefGoogle Scholar
  2. Adams, C., & King, K. (1995). Towards a framework for student self-assessment. Innovations in Education & Training International, 32(4), 336–343.CrossRefGoogle Scholar
  3. Andrade, H., & Du, Y. (2007). Student responses to criteria-referenced self-assessment. Assessment & Evaluation in Higher Education, 32(2), 159–181.CrossRefGoogle Scholar
  4. Arnold, J., Kremer, K., & Mayer, J. (2017). Scaffolding beim Forschenden Lernen: Eine empirische Untersuchung zur Wirkung von Lernunterstützungen. Zeitschrift für Didaktik der Naturwissenschaften, 23(1), 21–37.CrossRefGoogle Scholar
  5. Bangert-Drowns, R. L., Kulik, C.-L. C., Kulik, J. A., & Morgan, M. (1991). The instructional effect of feedback in test-like events. Review of Educational Research, 61(2), 213–238.CrossRefGoogle Scholar
  6. Black, P., & Wiliam, D. (1998). Assessment and classroom learning. Assessment in Education: Principles, Policy & Practice, 5(1), 7–75.CrossRefGoogle Scholar
  7. Bortz, J., & Döring, N. (2006). Forschungsmethoden und Evaluation für Human- und Sozialwissenschaftler. Heidelberg: Springer.CrossRefGoogle Scholar
  8. Bullock, M., & Sodian, B. (2003). Entwicklung des wissenschaftlichen Denkens. In W. Schneider & M. Knopf (Hrsg.), Entwicklung, Lehren und Lernen (S. 75–92). Göttingen: Hogrefe.Google Scholar
  9. Bürgermeister, A., Kampa, M., Rakoczy, K., Harks, B., Besser, M., Klieme, E., Leiß, D., et al. (2011). Dokumentation der Befragungsinstrumente des Laborexperimentes im Projekt „Conditions and Consequences of Classroom Assessment“ (Co²CA). Frankfurt am Main: DIPF.Google Scholar
  10. Chen, Z., & Klahr, D. (1999). All other things being equal: acquisition and transfer of the control of variables strategy. Child Development, 70(5), 1098–1120.CrossRefGoogle Scholar
  11. Dolin, J., Black, P., Harlen, W., & Tiberghien, A. (2018). Exploring relations between formative and summative assessment. In J. Dolin & R. Evans (Hrsg.), Transforming assessment (S. 53–80). Cham: Springer.CrossRefGoogle Scholar
  12. Efron, B., & Tibshirani, R. (1986). Bootstrap methods for standard errors, confidence intervals, and other measures of statistical accuracy. Statistical Science, 1(1), 54–77.CrossRefGoogle Scholar
  13. Falchikov, N., & Boud, D. (1989). Student self-assessment in higher education: a meta-analysis. Review of Educational Research, 59(4), 395–430.CrossRefGoogle Scholar
  14. Falchikov, N., & Goldfinch, J. (2000). Student peer assessment in higher education: a meta-analysis comparing peer and teacher marks. Review of Educational Research, 70(3), 287–322.CrossRefGoogle Scholar
  15. Geiser, C. (2010). Datenanalyse mit MPlus. Wiesbaden: VS.CrossRefGoogle Scholar
  16. Hadfield, M. (1995). Das Kupfer-Problem. CHEMKON, 2(3), 103–106.CrossRefGoogle Scholar
  17. Hammann, M., Phan, T. T. H., Ehmer, M., & Bayrhuber, H. (2006). Fehlerfrei Experimentieren. Der mathematische und naturwissenschaftliche Unterricht, 59(5), 292–299.Google Scholar
  18. Hammann, M., Phan, T. T. H., Ehmer, M., & Grimm, T. (2008). Assessing pupils’ skills in experimentation. Journal of Biological Education, 42(2), 66–72.CrossRefGoogle Scholar
  19. Hattie, J. (2009). Visible learning: a synthesis of over 800 meta-analyses relating to achievement. London: Routledge.Google Scholar
  20. Hattie, J., & Timperley, H. (2007). The power of feedback. Review of Educational Research, 77(1), 81–112.CrossRefGoogle Scholar
  21. Hayes, A. F., & Preacher, K. J. (2014). Statistical mediation analysis with a multicategorical independent variable. The British Journal of Mathematical and Statistical Psychology, 67(3), 451–470.CrossRefGoogle Scholar
  22. Heller, K. A., & Perleth, C. (2000). Kognitiver Fähigkeitstest für 4.–12. Klassen, Revision (KFT 4–12 + R). Göttingen: Hogrefe.Google Scholar
  23. Höttecke, D. (2010). Forschend-entdeckender Physikunterricht: Ein Überblick zu Hintergründen, Chancen und Umsetzungsmöglichkeiten entsprechender Unterrichskonzeptionen. Unterricht Physik, 119, 4–16.Google Scholar
  24. Höttecke, D., & Rieß, F. (2015). Naturwissenschaftliches Experimentieren im Lichte der jüngeren Wissenschaftsforschung – Auf der Suche nach einem authentischen Experimentbegriff der Fachdidaktik. Zeitschrift für Didaktik der Naturwissenschaften, 21, 127–139.CrossRefGoogle Scholar
  25. Kallweit, I. (2015). Effektivität des Einsatzes von Selbsteinschätzungsbögen im Chemieunterricht der Sekundarstufe I – Individuelle Förderung durch selbstreguliertes Lernen. Berlin: Logos.Google Scholar
  26. Kingston, N., & Nash, B. (2011). Formative assessment: a meta-analysis and a call for research. Educational Measurement: Issues and Practice, 30(4), 28–37.CrossRefGoogle Scholar
  27. Klos, S. (2007). Kompetenzförderung im naturwissenschaftlichen Anfangsunterricht: Der Einfluss eines integrierten Unterrichtskonzepts. Berlin: Logos.Google Scholar
  28. Kluger, A. N., & DeNisi, A. (1996). The effects of feedback interventions on performance: a historical review, a meta-analysis, and a preliminary feedback intervention theory. Psychological Bulletin, 119(2), 254–284.CrossRefGoogle Scholar
  29. KMK (2005). Beschlüsse der Kultusministerkonferenz: Bildungsstandards im Fach Chemie für den Mittleren Schulabschluss. München: Wolters Kluwer.Google Scholar
  30. Koenen, J. (2014). Entwicklung und Evaluation von experimentunterstützten Lösungsbeispielen zur Förderung naturwissenschaftlich-experimenteller Arbeitsweisen. Berlin: Logos.Google Scholar
  31. Lederman, J. S., Lederman, N. G., Bartos, S. A., Bartels, S. L., Meyer, A. A., & Schwartz, R. S. (2014). Meaningful assessment of learners’ understandings about scientific inquiry. The views about scientific inquiry (VASI) questionnaire. Journal of Research in Science Teaching, 51(1), 65–83.CrossRefGoogle Scholar
  32. Lienert, G., & Raatz, U. (1998). Testaufbau und Testanalyse. Weinheim: Psychologie Verlags Union.Google Scholar
  33. MacKinnon, D. P. (2008). Introduction to statistical mediation analysis. New York: Tayler & Francis.Google Scholar
  34. MacKinnon, D. P., Lockwood, C. M., & Williams, J. (2004). Confidence limits for the indirect effect: distribution of the product and resampling methods. Multivariate Behavioral Research, 39(1), 99.CrossRefGoogle Scholar
  35. McMillan, J. H., & Hearn, J. (2008). Student self-assessment: the key to stronger student motivation and higher achievement. Educational HORIZONS, 87(1), 40–49.Google Scholar
  36. Ministerium für Bildung, Wissenschaft, Forschung und Kultur des Landes Schleswig-Holstein (Hrsg.). (1997). Lehrplan für die Sekundarstufe I der weiterführenden allgemeinbildenden Schulen Hauptschule, Realschule, Gymnasium: Chemie. lehrplan.lernnetz.de/intranet1/index.php?wahl=124 Google Scholar
  37. Ministerium für Schule und Weiterbildung des Landes Nordrhein-Westfalen (2008). Kernlehrplan für das Gymnasium – Sekundarstufe I in Nordrhein-Westfalen. Chemie. Frechen: Ritterbach.Google Scholar
  38. NRC (Hrsg.). (2012). A framework for K‑12 science education: practices, crosscutting concepts, and core ideas. Washington, D.C.: National Academies Press.Google Scholar
  39. Preacher, K. J., & Hayes, A. F. (2008). Asymptotic and resampling strategies for assessing and comparing indirect effects in multiple mediator models. Behavior Research Methods, 40(3), 879–891.CrossRefGoogle Scholar
  40. Rönnebeck, S., Bernholt, S., & Ropohl, M. (2016). Searching for a common ground—a literature review of empirical research on scientific inquiry activities. Studies in Science Education, 52(2), 161–197.CrossRefGoogle Scholar
  41. Ropohl, M., Scheuermann, H., & Rönnebeck, S. (2015a). Diagnostizieren und bewerten mit dem Forscherbogen – Formative Diagnose beim forschenden Lernen. Naturwissenschaften im Unterricht – Chemie, 26(149), 40–44.Google Scholar
  42. Ropohl, M., Rönnebeck, S., & Scheuermann, H. (2015b). Naturwissenschaftliche Erkenntnisgewinnung im Chemieunterricht. Das Konzept des forschenden Lernens. Praxis der Naturwissenschaften – Chemie in der Schule, 64(6), 5–8.Google Scholar
  43. Ross, J. A. (1988). Controlling variables: a meta-analysis of training studies. Review of Educational Research, 58(4), 405–437.CrossRefGoogle Scholar
  44. Schulz, A., Wirtz, M., & Starauschek, E. (2012). Das Experiment in den Naturwissenschaften. In W. Rieß, M. Wirtz, B. Barzel & A. Schulz (Hrsg.), Experimentieren im mathematsch-naturwissenschaftlichen Unterricht. Schüler lernen wissenschaftlich denken und arbeiten (S. 15–38). Münster: Waxmann.Google Scholar
  45. Schwichow, M., Zimmerman, C., Croker, S., & Härtig, H. (2016). What students learn from hands-on activities. Journal of Research in Science Teaching, 53(7), 980–1002.CrossRefGoogle Scholar
  46. Siler, S. A., & Klahr, D. (2012). Detecting, classifying and remediating: children’s explicit and implicit misconceptions about experimental design. In R. W. Proctor & E. J. Capaldi (Hrsg.), Psychology of science. Implicit and explicit processes (S. 137–180). New York: Oxford University Press.CrossRefGoogle Scholar
  47. Vollmeyer, R., & Rheinberg, F. (2005). A surprising effect of feedback on learning. Learning and Instruction, 15(6), 589–602.CrossRefGoogle Scholar
  48. Vorholzer, A., von Aufschnaiter, C., & Kirschner, S. (2016). Entwicklung und Erprobung eines Tests zur Erfassung des Verständnisses experimenteller Denk- und Arbeitsweisen. Zeitschrift für Didaktik der Naturwissenschaften, 22(1), 25–41.CrossRefGoogle Scholar
  49. Wahser, I., & Sumfleth, E. (2008). Training experimenteller Arbeitsweisen zur Unterstützung kooperativer Kleingruppenarbeit im Fach Chemie. Zeitschrift für Didaktik der Naturwissenschaften, 14, 219–241.Google Scholar
  50. Wellnitz, N., & Mayer, J. (2013). Erkenntnismethoden in der Biologie – Entwicklung und Evaluation eines Kompetenzmodells. Zeitschrift für Didaktik der Naturwissenschaften, 19, 315–345.Google Scholar
  51. White, B. Y., & Frederiksen, J. R. (1998). Inquiry, modeling, and metacognition: making science accessible to all students. Cognition and Instruction, 16(1), 3–118.CrossRefGoogle Scholar
  52. Wollenschläger, M., Möller, J., & Harms, U. (2012). Ist kompetenzielles Fremdfeedback überlegen, weil es als effektiver wahrgenommen wird? Unterrichtswissenschaft, 40(3), 197–212.Google Scholar
  53. Zenner, C., Scheuermann, H., & Ropohl, M. (2017). Das Kupfer-Problem 2.0. Untersuchung der Schülervorstellungen zur Oxidation von Kupfer. Chemie Konkret, 24(5), 370–380.Google Scholar

Copyright information

© Gesellschaft für Didaktik der Physik und Chemie (GDCP); Fachsektion Didaktik der Biologie im VBIO (FDdB im VBIO) and Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2018

Authors and Affiliations

  1. 1.Didaktik der ChemieUniversität Duisburg-EssenEssenDeutschland
  2. 2.Abteilung für Didaktik der ChemieIPN – Leibniz-Institut für die Pädagogik der Naturwissenschaften und MathematikKielDeutschland

Personalised recommendations