Auflistung Workshop ABP 2021 nach Erscheinungsdatum
1 - 9 von 9
Treffer pro Seite
Sortieroptionen
- KonferenzbeitragTeaching Software Testing Using Automated Grading(Proceedings of the Fifth Workshop "Automatische Bewertung von Programmieraufgaben" (ABP 2021),virtual event, October 28-29, 2021, 2021) Beierlieb, Lukas; Iffländer, Lukas; Schneider, Tobias; Prantl, Thomas; Kounev, SamuelSoftware testing has become a standard for most software projects. However, there is a lack of testing in many curricula, and if present, courses lack instant feedback using automated systems. In this work, we show our realization of an exercise to teach software testing using an automated grading system. We illustrate our didactic goals, describe the task design and technical implementation. Evaluation shows that students experience only a slight increase in difficulty compared to other tasks and perceive the task description as sufficient.
- KonferenzbeitragPlagiarism Detection Approaches for Simple Introductory Programming Assignments(Proceedings of the Fifth Workshop "Automatische Bewertung von Programmieraufgaben" (ABP 2021),virtual event, October 28-29, 2021, 2021) Strickroth, SvenLearning to program is often perceived as hard by students and some students try to cheat. Plagiarisms are reported to be a huge problem particularly for summative-like assignments (e.g., crediting courses or bonus points). It is important to fight plagiarisms from early on – even for simple assignments. Especially for larger courses tool support is required. This paper provides an overview of features for commonly used plagiarism detection tools, discusses how these can be integrated into existing assessment systems, and how their results relate to each other for two data sets of quite simple assignments. Additionally, these specialized tools are compared with a simple Levenshtein distance approach. The paper also outlines limits on very simple assignments.
- TextdokumentVorwort(Proceedings of the Fifth Workshop "Automatische Bewertung von Programmieraufgaben" (ABP 2021),virtual event, October 28-29, 2021, 2021) Greubel, André; Strickroth, Sven; Striewe, Michael
- KonferenzbeitragOn the Influence of Task Size and Template Provision on Solution Similarity(Proceedings of the Fifth Workshop "Automatische Bewertung von Programmieraufgaben" (ABP 2021),virtual event, October 28-29, 2021, 2021) Haan, Tobias; Striewe, MichaelIn most cases of programming education, there is not a single correct answer to a given task. Instead, the same problem can be solved by two or more pieces of program code that look very different. At the same time, two or more pieces of program code that look very similar may actually solve very different problems. It is thus not easy to foresee which degree of similarity one can expect for all or at least the correct submissions to a given programming task. Since several applications may benefit from some kind of prediction of the similarity, this paper presents first, preliminary results from research on that topic. In particular, it presents results from an empirical study on the influence of exercise size and template provision. Results indicate that both factors are not suitable as simple predictors and that other factors have to be taken into account as well. Nevertheless, the results help to generate hypothesis for more detailed subsequent studies.
- KonferenzbeitragAkzeptanz der Nutzung von automatisiertem Assessment im Rahmen einer virtuellen Vorlesung(Proceedings of the Fifth Workshop "Automatische Bewertung von Programmieraufgaben" (ABP 2021),virtual event, October 28-29, 2021, 2021) Horn, Florian; Schiffner, Daniel; Krömker, DetlefDurch die Umstellung auf virtuelle Lehre findet auch die Verwendung von automatischen Tools zur Bewertung von Programmieraufgaben immer mehr den Einzug in die Lehre. Im Rahmen einer solchen virtuellen Vorlesung wurde eine Bewertung durch die Studierenden vorgenommen, um daraus Erkenntnisse für die zukünftige Einbettung in der Lehre zu ziehen. Die Vorlesung zielt dabei auf höhere Semester des Bachelorstudiengangs ab und nutzt dabei Vorerfahrungen der Studierenden. Insgesamt wurde Feedback von 47 Studierende durch einen Fragebogen erhoben, und daraus Rückschlüsse auf die Qualität und Einsetzbarkeit von Unit-Tests gezogen.
- KonferenzbeitragMessung der Schwierigkeit von Programmieraufgaben zur Kryptologie in Java(Proceedings of the Fifth Workshop "Automatische Bewertung von Programmieraufgaben" (ABP 2021),virtual event, October 28-29, 2021, 2021) Knorr, KonstantinSysteme zur automatischen Bewertung von Programmieraufgaben (ABP) werden seit vielen Jahren erfolgreich in der Ausbildung von Informatikern eingesetzt, insbesondere in Zeiten verstärkter Online-Lehre. Kryptologie gilt bei vielen Studierenden aufgrund ihrer formellen und theoretischen Natur als schwer zugänglich. Das Verständnis kryptologischer Primitiven wie Ver- und Entschlüsselung oder Signatur und ihre Verifikation kann durch die Programmierung bzw. programmatische Anwendung gestärkt werden. Der Beitrag präsentiert eine Studie mit 20 Studierenden, 20 Aufgaben zur Kryptologie und ~300 JUnit-Testfällen, die über ein ABP-System ausgewertet wurden. Die Auswertung nach der Fehlerrate und dem Lösungszeitpunkt der kryptologischen Testfälle erlaubt die Identifikation von schweren Testfällen und zeigt u.a., dass Studierende weniger Fehler bei Substitutions- als bei Transpositionschiffren machen, symmetrische Chiffren leichter fallen als asymmetrische und dass Tests zu den Konstruktoren, Exceptions und Padding deutlich früher und besser gelöst wurden als Tests zu Signaturen und deren Verifikation.
- KonferenzbeitragAn Architecture for the Automated Assessment of Web Programming Tasks(Proceedings of the Fifth Workshop "Automatische Bewertung von Programmieraufgaben" (ABP 2021),virtual event, October 28-29, 2021, 2021) Aubele, Lara; Martin, Leon; Hirmer, Tobias; Henrich, AndreasAutomatically assessing students' solutions to programming tasks in the domain of web programming requires special means due to the characteristics of web applications. This paper proposes an architecture for a web-based learning application tailored to this domain. For the implementation of the automated assessment of programming tasks, we make use of end-to-end testing and container virtualization. This allows, in contrast to other popular approaches, the coverage of tasks that include special operations like DOM manipulations, which alter the user interface of web applications, in a way that is convenient for both students and instructors. We demonstrate the capabilities and limitations of the architecture based on two common usage scenarios.
- KonferenzbeitragImproving the Scalability and Security of Execution Environments for Auto-Graders in the Context of MOOCs(Proceedings of the Fifth Workshop "Automatische Bewertung von Programmieraufgaben" (ABP 2021),virtual event, October 28-29, 2021, 2021) Serth, Sebastian; Köhler, Daniel; Marschke, Leonard; Auringer, Felix; Hanff, Konrad; Hellenberg, Jan-Eric; Kantusch, Tobias; Paß, Maximilian; Meinel, ChristophLearning a programming language requires learners to write code themselves, execute their programs interactively, and receive feedback about the correctness of their code. Many approaches with so-called auto-graders exist to grade students' submissions and provide feedback for them automatically. University classes with hundreds of students or Massive Open Online Courses (MOOCs) with thousands of learners often use these systems. Assessing the submissions usually includes executing the students' source code and thus implies requirements on the scalability and security of the systems. In this paper, we evaluate different execution environments and orchestration solutions for auto-graders. We compare the most promising open-source tools regarding their usability in a scalable environment required for MOOCs. According to our evaluation, Nomad, in conjunction with Docker, fulfills most requirements. We derive implications for the productive use of Nomad for an auto-grader in MOOCs.
- TextdokumentWir können es, aber sollen wir es auch? – Ein didaktischer Blick auf automatisierte Bewertung von Programmieraufgaben(Proceedings of the Fifth Workshop "Automatische Bewertung von Programmieraufgaben" (ABP 2021),virtual event, October 28-29, 2021, 2021) Mühling, AndreasDidaktische Entscheidungen sind in den meisten Fällen keine eindeutigen ja/nein Entscheidungen. Vielmehr sind der Kontext einer Maßnahme, das intendierte Ziel und speziell auch die Details der Umsetzung meist ausschlaggebend dafür, ob eine didaktische Maßnahme für viele oder wenige Lernende sinnvoll funktioniert, den Anderen nicht weiter schadet oder aber vielleicht für einige oder viele Lernende sogar kontraproduktiv ist. Typische und sinnvolle Ziele wie Effizienz und Effektivität, Ökonomie und Lehrqualität stehen darüber hinaus oft in einem unauflösbaren Widerspruch zueinander so dass auch hier nur eine individuelle Abwägung der Möglichkeiten zu einer Entscheidung für oder wider einer didaktischen Maßnahme führen kann. Der Vortrag stellt zunächst relevante fachdidaktische Forschung zum Programmierunterricht und allgemeine Erkenntnisse zu Feedback und Lernen vor. Er geht dabei der Frage nach, unter welchen Bedingungen und mit welchen Zielsetzungen eine automatisierte Bewertung im Kontext von Programmieraufgaben (un-)sinnvoll erscheint. Darauf aufbauend werden Implikationen einerseits für die Technologie, andererseits aber auch für deren Einsatz speziell für die Lehre in Einführungsveranstaltungen der Informatik abgeleitet.