Show simple item record

dc.contributor.authorOlbricht, Christoph
dc.contributor.editorStrickroth, Sven
dc.contributor.editorStriewe, Michael
dc.contributor.editorRod, Oliver
dc.date.accessioned2019-09-30T11:23:01Z
dc.date.available2019-09-30T11:23:01Z
dc.date.issued2019
dc.identifier.urihttp://dl.gi.de/handle/20.500.12116/27941
dc.description.abstractAn der Universität Duisburg-Essen wird zur automatischen Korrektur von Programmieraufgaben seit mehr als zehn Jahren erfolgreich das E-Assessment-System JACK verwendet. Bisher war das Feedback von JACK auf vordefinierte Hinweise beschränkt, welche in den statischen und dynamischen Tests formuliert wurden. Für die Prüfung der Einsatztauglichkeit von Trace-Vergleichen zur Feedback-Erzeugung in JACK wurden Traces studentischer Lösungen mit Musterlösungen der Aufgaben automatisch verglichen. Hierzu musste zunächst mittels statischer Checks eine passende Musterlösung gewählt werden. Ziel war die Erzeugung eines Feedback-Markers zur Fehlererkennung, um den Studierenden erweitertes Feedback zu bieten. Es wurde festgestellt, dass bestimmte Anforderungen an Länge und Struktur der Aufgaben erfüllt sein müssen, damit der Algorithmus Feedback-Marker erzeugt.de
dc.language.isode
dc.publisherGesellschaft für Informatik e.V.
dc.relation.ispartofProceedings of the Fourth Workshop "Automatische Bewertung von Programmieraufgaben" (ABP 2019), Essen, Germany, October 8-9, 2019
dc.relation.ispartofseriesWorkshop „Automatische Bewertung von Programmieraufgaben“
dc.subjectE-Assessment
dc.subjectautomatische Bewertung
dc.subjectTrace-Vergleich
dc.subjectJACK
dc.titleTrace-Vergleich zur Feedback-Erzeugung im automatisierten E-Assessment-System JACKde
dc.typeText/Conference Paper
mci.conference.sessiontitleVollbeiträge „Automatische Bewertung und Feedbackerzeugung“
dc.identifier.doi10.18420/abp2019-2


Files in this item

Thumbnail

Show simple item record