Advertisement

HMD Praxis der Wirtschaftsinformatik

, Volume 52, Issue 1, pp 96–107 | Cite as

Freitextaufgaben in Online-Tests – Bewertung und Bewertungsunterstützung

  • Cornelia Kiefer
  • Ulrike Pado
Article

Zusammenfassung

Der Einsatz von eLearning-Szenarien bietet viele innovative Möglichkeiten für die Wissensvermittlung. Spezielle eLearning-Tools dienen dazu, Lernressourcen, interaktive Elemente sowie Interaktions- und Kommunikationsmöglichkeiten bereitzustellen und zu kombinieren. So wird selbstgesteuertes, asynchrones Lernen möglich, methodisch erschließen sich neue Wege und hohe Aufwände für große Lerngruppen können sinken. In diesem Zusammenhang stellt sich die Frage, welchen Nutzen die computergestützte Umsetzung von Lernstandsüberprüfungen (Tests und Klausuren) für Dozenten und Lernende haben kann.

Stark assoziiert mit Tests im eLearning-Bereich sind Multiple-Choice-Aufgaben. Als automatisch korrigierbare Fragen können sie im eLearning-Umfeld schnell und objektiv bewertet werden und liefern auch bei großen Teilnehmerzahlen schnell Feedback an Lernende und Dozenten. Gleichzeitig zweifeln viele Dozenten daran, dass diese Frageform die geforderten Kenntnisse und Fähigkeiten wirklich wiederspiegeln und befürchten ungerechtfertigte Erfolge durch Raten. Freitextfragen umgehen diese Probleme und bieten den Mehrwert einer klareren Einsicht in die Denkweise des Prüflings, doch ist ihre Korrektur zeitaufwändig und oft subjektiv. Wir geben Hinweise für die Praxis, die die Bewertung von Freitextaufgaben verbessern und beschleunigen helfen, und illustrieren unsere Überlegungen an einem realen Datensatz von Freitextfragen und Antworten, der im Verlauf einer Einführungsveranstaltung in die Programmierung für Informatiker und Wirtschaftsinformatiker gewonnen wurde.

Abschließend stellen wir unsere noch andauernde Arbeit an einem System zur halbautomatischen Bewerterunterstützung vor, das vom computerbasierten Umfeld im eLearning-Bereich profitiert und sowohl den Zeitaufwand für die manuelle Bewertung als auch die Replizierbarkeit der Bewertungen weiter optimieren soll.

Schlüsselwörter

eAssessment Freitextfragen Objektive Bewertung Bewerterunterstützung 

Literatur

  1. Ehlers JP, Guetl C, Höntzsch S, Usener CA, Gruttmann A (2013) Prüfen mit Computer und Internet. In: Schön S, Ebner M (Hrsg) L3T Lehrbuch für Lernen und Lehren mit TechnologienGoogle Scholar
  2. Hartig J, Jude N (2007) Empirische Erfassung von Kompetenzen und psychometrische Kompetenzmodelle. In: Hartig J, Klieme E (Hrsg) Möglichkeiten und Voraussetzungen technologiebasierter Kompetenzdiagnostik Bd. 20. Bundesministerium für Bildung und Forschung, Bonn, S 17–32Google Scholar
  3. Jude N, Wirth J (2007) Neue Chancen bei der technologiebasierten Erfassung von Kompetenzen. In: Hartig J, Klieme E (Hrsg) Möglichkeiten und Voraussetzungen technologiebasierter Kompetenzdiagnostik Bd. 20. Bundesministerium für Bildung und Forschung, Bonn, S 49–56Google Scholar
  4. Mohler M, Bunescu R, Mihalcea R (2011) Learning to grade short answer questions using semantic similarity measures and dependency graph alignments. In: Proceedings of the 49th Annual Meeting of the Association for Computational Linguistics, S 752–762Google Scholar
  5. Papieni K, Roukos S, Ward T, Zhu WJ (2002) BLEU: a method for automatic evaluation of machine translation. In: Proceedings of the 40th Annual meeting of the Association for Computational Linguistics, S 311–318Google Scholar
  6. Potthast M, Barrón-Cedeno A, Eiselt A, Stein B, Rosso P (2010) Overview of the 2nd Internation Competition on Plagiarism Detection. In: Braschler M, Harmann D (Hrsg) Notebook Papers of CLEF 2010 LABs and WorkshopsGoogle Scholar
  7. Schmees M (2011) eAssessment an Hochschulen. Hamburger E-Learning Magazin Nr. 7, S 31–33Google Scholar
  8. Schulz A, Apostolopoulos N (2011) Potenziale computergestützter Prüfungen. Hamburger E-Learning Magazin Nr. 7, S 37–39Google Scholar
  9. Turner J, Shellard E (2004) Developing and using instructional rubrics. ERS Focus On, Educational Research ServiceGoogle Scholar
  10. Wise MJ (1996) YAP3: improved detection of similarities in computer program and other texts. In: SIGCSE Bulletin, ACM Special Interest Group on Computer Science Education, S 130–134Google Scholar
  11. Wolska M, Horbach A, Palmer A (2014) Computer-assisted scoring of short responses: the efficiency of a clustering-based approach in a real-life task. In: Przepiórkowski A, Ogrodniczuk M (Hrsg) Advances in natural language processing, lecture notes in computer science Bd. 8686, Springer, S 298–210Google Scholar
  12. Ziai R, Ott N, Meurers D (2012) Short answer assessment: establishing links between research strands. In: Proceedings of the 7th Workshop on the Innovative Use of NLP for Building Educational Applications, S 190–200Google Scholar

Copyright information

© Springer Fachmedien Wiesbaden 2014

Authors and Affiliations

  1. 1.Hochschule für Technik StuttgartStuttgartDeutschland

Personalised recommendations