Auflistung nach Schlagwort "Programmieraufgaben"
1 - 4 von 4
Treffer pro Seite
Sortieroptionen
- Conference PaperEin Format für Bewertungsvorschriften in automatisiert bewertbaren Programmieraufgaben(DELFI 2019, 2019) Garmann, RobertAutomatisiert bewertbare Programmieraufgaben definieren Tests, die auf Einreichungen angewendet werden. Da Testergebnisse nicht mit Bewertungsergebnissen gleichzusetzen sind, schlagen wir ein Beschreibungsformat vor, das Testergebnisse auf Bewertungsergebnisse abbildet. Lehrkräfte können die Abbildungsvorschrift an ihren Lehrkontext anpassen. Der Vorschlag ist unabhängig von den beteiligten Autobewertern, von den eingesetzten Benutzungsschnittstellen und von der zu lernenden Programmiersprache einsetzbar. Das Format basiert auf verschachtelten Bewertungskategorien, welche um ein Nullifikationen-Konzept ergänzt werden.
- KonferenzbeitragRelevanz der Codequalität in einem Praktikum mit automatisch getesteten Programmierabgaben(Proceedings of the Fourth Workshop "Automatische Bewertung von Programmieraufgaben" (ABP 2019), Essen, Germany, October 8-9, 2019, 2019) Greubel, Andre; Hegemann, Tim; Ifland, Marianus; Hennecke, MartinSysteme zur automatisierten Bewertung von Programmieraufgaben bewerten üblicherweise nicht die Codequalität. In dieser Arbeit wird an einem Praktikum mit \num{212} Studierenden empirisch untersucht, welche Relevanz diese der Codequalität beimessen und welche Relevanz verschiedene Qualitätsmetriken auf das Bestehen des Praktikums haben. Des Weiteren wird analysiert, ob diese Metriken von externen Faktoren wie dem Studiengang oder der Praktikumswiederholung beeinflusst werden.
- WorkshopTippfilter: Programmierprojekte für den Unterricht einfacher pflegen(INFOS 2023 - Informatikunterricht zwischen Aktualität und Zeitlosigkeit, 2023) Lautebach, UrsDas Werkzeug Tippfilter soll Lehrpersonen die Erstellung und Pflege von Programmieraufgaben erleichtern: Statt zwei Versionen der Aufgaben mit und ohne Musterlösung in zwei Ordnern zu pflegen, kann man mit Tippfilter alles in einer Datei erstellen – und später nach Bedarf filtern. Das erlaubt sehr flexibel die Bereitstellung unterschiedlichster Versionen des gleichen Projekts, die sich etwa in gestaffelten Hilfen unterscheiden können (mit/ohne Lösungen, Kurztipps, ausführlichen Hilfestellungen), aber auch hinsichtlich der Zielgruppen (Grund/Leistungskurs, Unterricht/Fortbildung) oder einzeln ausgewählter Teile des Projekts (mit/ohne Unit-Tests, nur Quicksort/Mergesort/Bubblesort usw.).
- KonferenzbeitragWieviel Ähnlichkeit ist in Programmierprüfungen normal?(Proceedings of the Sixth Workshop "Automatische Bewertung von Programmieraufgaben" (ABP 2023), 2023) Olbricht, Christoph; Schypula, Rafael; Striewe, MichaelWerkzeuge zur Identifikation von Plagiaten in Programmieraufgabe messen häufig die Ähnlichkeit zwischen Abgaben. Die Interpretation dieser Werte zur Identifikation von Verdachts¬momenten ist jedoch schwierig, da eine gewisse Ähnlichkeit von Abgaben unvermeidlich ist. Es ist insbesondere unklar, welche Ähnlichkeitsverteilung innerhalb einer Kohorte ohne Plagiate als normal angesehen werden kann und welche Abweichungen davon als Verdachtsmoment genutzt werden können. Der vorliegende Beitrag vergleicht dazu unter Nutzung zweier Werkzeuge zur Plagiatserkennung unter Aufsicht erstellte Abgaben zu Prüfungsaufgaben mit solchen, die ohne Aufsicht entstanden sind. Die Ergebnisse zeigen, dass die Ermittlung einer „Baseline“ für die erwartbare Ähnlichkeit schwierig ist, da auch schon kleine Änderungen der Aufgabenstellung starke Auswirkungen auf die Ähnlichkeit der Lösungen haben können.