Skip to main content
Log in

Freitextaufgaben in Online-Tests – Bewertung und Bewertungsunterstützung

  • Published:
HMD Praxis der Wirtschaftsinformatik Aims and scope Submit manuscript

Zusammenfassung

Der Einsatz von eLearning-Szenarien bietet viele innovative Möglichkeiten für die Wissensvermittlung. Spezielle eLearning-Tools dienen dazu, Lernressourcen, interaktive Elemente sowie Interaktions- und Kommunikationsmöglichkeiten bereitzustellen und zu kombinieren. So wird selbstgesteuertes, asynchrones Lernen möglich, methodisch erschließen sich neue Wege und hohe Aufwände für große Lerngruppen können sinken. In diesem Zusammenhang stellt sich die Frage, welchen Nutzen die computergestützte Umsetzung von Lernstandsüberprüfungen (Tests und Klausuren) für Dozenten und Lernende haben kann.

Stark assoziiert mit Tests im eLearning-Bereich sind Multiple-Choice-Aufgaben. Als automatisch korrigierbare Fragen können sie im eLearning-Umfeld schnell und objektiv bewertet werden und liefern auch bei großen Teilnehmerzahlen schnell Feedback an Lernende und Dozenten. Gleichzeitig zweifeln viele Dozenten daran, dass diese Frageform die geforderten Kenntnisse und Fähigkeiten wirklich wiederspiegeln und befürchten ungerechtfertigte Erfolge durch Raten. Freitextfragen umgehen diese Probleme und bieten den Mehrwert einer klareren Einsicht in die Denkweise des Prüflings, doch ist ihre Korrektur zeitaufwändig und oft subjektiv. Wir geben Hinweise für die Praxis, die die Bewertung von Freitextaufgaben verbessern und beschleunigen helfen, und illustrieren unsere Überlegungen an einem realen Datensatz von Freitextfragen und Antworten, der im Verlauf einer Einführungsveranstaltung in die Programmierung für Informatiker und Wirtschaftsinformatiker gewonnen wurde.

Abschließend stellen wir unsere noch andauernde Arbeit an einem System zur halbautomatischen Bewerterunterstützung vor, das vom computerbasierten Umfeld im eLearning-Bereich profitiert und sowohl den Zeitaufwand für die manuelle Bewertung als auch die Replizierbarkeit der Bewertungen weiter optimieren soll.

This is a preview of subscription content, log in via an institution to check access.

Access this article

Price excludes VAT (USA)
Tax calculation will be finalised during checkout.

Instant access to the full article PDF.

Abb. 1
Abb. 2

Notes

  1. www.moodle.de.

  2. www.ilias.de.

  3. www.olat.org.

  4. Eine Stoppwortliste für das Deutsche findet sich unter http://snowball.tartarus.org/algorithms/german/stop.txt.

Literatur

  • Ehlers JP, Guetl C, Höntzsch S, Usener CA, Gruttmann A (2013) Prüfen mit Computer und Internet. In: Schön S, Ebner M (Hrsg) L3T Lehrbuch für Lernen und Lehren mit Technologien

  • Hartig J, Jude N (2007) Empirische Erfassung von Kompetenzen und psychometrische Kompetenzmodelle. In: Hartig J, Klieme E (Hrsg) Möglichkeiten und Voraussetzungen technologiebasierter Kompetenzdiagnostik Bd. 20. Bundesministerium für Bildung und Forschung, Bonn, S 17–32

  • Jude N, Wirth J (2007) Neue Chancen bei der technologiebasierten Erfassung von Kompetenzen. In: Hartig J, Klieme E (Hrsg) Möglichkeiten und Voraussetzungen technologiebasierter Kompetenzdiagnostik Bd. 20. Bundesministerium für Bildung und Forschung, Bonn, S 49–56

  • Mohler M, Bunescu R, Mihalcea R (2011) Learning to grade short answer questions using semantic similarity measures and dependency graph alignments. In: Proceedings of the 49th Annual Meeting of the Association for Computational Linguistics, S 752–762

  • Papieni K, Roukos S, Ward T, Zhu WJ (2002) BLEU: a method for automatic evaluation of machine translation. In: Proceedings of the 40th Annual meeting of the Association for Computational Linguistics, S 311–318

  • Potthast M, Barrón-Cedeno A, Eiselt A, Stein B, Rosso P (2010) Overview of the 2nd Internation Competition on Plagiarism Detection. In: Braschler M, Harmann D (Hrsg) Notebook Papers of CLEF 2010 LABs and Workshops

  • Schmees M (2011) eAssessment an Hochschulen. Hamburger E-Learning Magazin Nr. 7, S 31–33

  • Schulz A, Apostolopoulos N (2011) Potenziale computergestützter Prüfungen. Hamburger E-Learning Magazin Nr. 7, S 37–39

  • Turner J, Shellard E (2004) Developing and using instructional rubrics. ERS Focus On, Educational Research Service

  • Wise MJ (1996) YAP3: improved detection of similarities in computer program and other texts. In: SIGCSE Bulletin, ACM Special Interest Group on Computer Science Education, S 130–134

    Google Scholar 

  • Wolska M, Horbach A, Palmer A (2014) Computer-assisted scoring of short responses: the efficiency of a clustering-based approach in a real-life task. In: Przepiórkowski A, Ogrodniczuk M (Hrsg) Advances in natural language processing, lecture notes in computer science Bd. 8686, Springer, S 298–210

  • Ziai R, Ott N, Meurers D (2012) Short answer assessment: establishing links between research strands. In: Proceedings of the 7th Workshop on the Innovative Use of NLP for Building Educational Applications, S 190–200

Download references

Author information

Authors and Affiliations

Authors

Corresponding author

Correspondence to Ulrike Pado.

Rights and permissions

Reprints and permissions

About this article

Check for updates. Verify currency and authenticity via CrossMark

Cite this article

Kiefer, C., Pado, U. Freitextaufgaben in Online-Tests – Bewertung und Bewertungsunterstützung. HMD 52, 96–107 (2015). https://doi.org/10.1365/s40702-014-0104-2

Download citation

  • Received:

  • Accepted:

  • Published:

  • Issue Date:

  • DOI: https://doi.org/10.1365/s40702-014-0104-2

Schlüsselwörter

Navigation