Auflistung nach:
Auflistung Workshop Automatische Bewertung von Programmieraufgaben nach Titel
1 - 10 von 33
Treffer pro Seite
Sortieroptionen
- KonferenzbeitragAkzeptanz der Nutzung von automatisiertem Assessment im Rahmen einer virtuellen Vorlesung(Proceedings of the Fifth Workshop "Automatische Bewertung von Programmieraufgaben" (ABP 2021),virtual event, October 28-29, 2021, 2021) Horn, Florian; Schiffner, Daniel; Krömker, DetlefDurch die Umstellung auf virtuelle Lehre findet auch die Verwendung von automatischen Tools zur Bewertung von Programmieraufgaben immer mehr den Einzug in die Lehre. Im Rahmen einer solchen virtuellen Vorlesung wurde eine Bewertung durch die Studierenden vorgenommen, um daraus Erkenntnisse für die zukünftige Einbettung in der Lehre zu ziehen. Die Vorlesung zielt dabei auf höhere Semester des Bachelorstudiengangs ab und nutzt dabei Vorerfahrungen der Studierenden. Insgesamt wurde Feedback von 47 Studierende durch einen Fragebogen erhoben, und daraus Rückschlüsse auf die Qualität und Einsetzbarkeit von Unit-Tests gezogen.
- TextdokumentAlgorithmenerkennung und Programmreparatur mittels Dynamischer ProgrammanalyseAlgorithmenerkennung und Programmreparatur mittels Dynamischer Programmanalyse(Proceedings of the Sixth Workshop "Automatische Bewertung von Programmieraufgaben" (ABP 2023), 2023) Zuleger, FlorianIn diesem Vortrag beschreibe ich zwei Ansätze zur Erkennung der algorithmischen Idee eines Programms und ihre Anwendung in der Feedback-Generierung für einführende Program-mieraufgaben. Beide Techniken basieren auf der dynamischen Programmanalyse, in Verbindung mit Constraintprogrammierung. Die erste Technik ist halbautomatisch und zielt darauf ab, Performanceprobleme in Programmen zu finden. Die zweite Technik verwendet einen großen Korpus korrekter Programme, die anhand von syntaktischen Kriterien und Programmausführungen geclustert und anschließend zur Reparatur fehlerhafter Programme verwendet werden.
- WorkshopbeitragAnsatz zur automatischen Generierung von Java-OOP-Aufgaben inkl. Bewertungsschemen(Proceedings of the Fourth Workshop "Automatische Bewertung von Programmieraufgaben" (ABP 2019), Essen, Germany, October 8-9, 2019, 2019) Döring, UlfIm Fach Algorithmen und Programmierung für Ingenieure werden an der TU Ilmenau noch papierbasierte Klausuren mit einem sehr geringen Multiple-Choice-Anteil geschrieben. Entsprechend hoch ist der Aufwand der händischen Korrektur. Zudem müssen selbst zum Zeitpunkt der Prüfung die meisten Studierenden noch als Programmieranfänger gesehen werden. Hierdurch führen Ansätze, welche compilierbaren Quellcode voraussetzen, sowohl beim Üben als auch bei Klausuren regelmäßig nicht zu angemessenen Bewertungen. Dieser Artikel beschreibt die Entwicklung eines Aufgabengenerators für einen bestimmten Aufgabentyp im Kontext von Java und OOP. Die automatische Generierung der Aufgaben soll in Bezug auf die zielgerichtete Vorbereitung auf die Prüfung den Studierenden Übungsmöglichkeiten bieten. Hinsichtlich der Klausurkontrolle sollen zudem auch Bewertungsschemen zur Anwendung bei der händischen Korrektur erzeugt werden.
- KonferenzbeitragAn Architecture for the Automated Assessment of Web Programming Tasks(Proceedings of the Fifth Workshop "Automatische Bewertung von Programmieraufgaben" (ABP 2021),virtual event, October 28-29, 2021, 2021) Aubele, Lara; Martin, Leon; Hirmer, Tobias; Henrich, AndreasAutomatically assessing students' solutions to programming tasks in the domain of web programming requires special means due to the characteristics of web applications. This paper proposes an architecture for a web-based learning application tailored to this domain. For the implementation of the automated assessment of programming tasks, we make use of end-to-end testing and container virtualization. This allows, in contrast to other popular approaches, the coverage of tasks that include special operations like DOM manipulations, which alter the user interface of web applications, in a way that is convenient for both students and instructors. We demonstrate the capabilities and limitations of the architecture based on two common usage scenarios.
- KonferenzbeitragAutomated Detection of Bugs in Error Handling for Teaching Secure C Programming(Proceedings of the Sixth Workshop "Automatische Bewertung von Programmieraufgaben" (ABP 2023), 2023) Schrötter, Max; Falk, Maximilian; Schnor, BettinaThe Low-Level programming language C is widely used for Operating Systems, Embedded Systems and other performance critical applications. Since these applications are often security critical, they require secure programming. The C language on the other hand allows novice programmers to write insecure code easily. This makes it especially important to teach secure programming and give students feedback on potential security issues. One critical bug that is often overlooked is the incorrect handling of errors. In this paper, we present an Error Handling Analyzer (EHA) for the CoFee framework. The EHA detects missing error handling and incorrect error handling using the Clang Static Analyzer. We evaluated EHA on 100 student submissions and found that error handling bugs are a common mistake and that EHA can detect more than 80 % of the error handling bugs in these submissions.
- KonferenzbeitragAutomatic Evaluation of Haskell Assignments Using Existing Haskell Tooling(Proceedings of the Sixth Workshop "Automatische Bewertung von Programmieraufgaben" (ABP 2023), 2023) Prokosch, Thomas; Strickroth, SvenLearning Haskell is hard for many students because of its functional nature. What is more, Haskell uses a sophisticated type system that many students find quite confusing in the beginning. Therefore, providing timely feedback regarding correctness and quality for student Haskell solutions is important, a challenge particularly in large courses. Computer-assisted correction of submissions offers a way to help tutors and students alike, but this requires the computer to understand the language. Parsing the student submissions into a syntax tree and analyzing the syntax tree is one possibility, however, this paper describes a more straightforward approach that uses only a Haskell compiler and a few standard tools. Based on a migration of a Haskell course with manual to automatic correction we classified assignment into different categories and describe this approach in detail for each category.
- KonferenzbeitragAutomatische Bewertung von Haskell-Programmieraufgaben(Proceedings of the Fourth Workshop "Automatische Bewertung von Programmieraufgaben" (ABP 2019), Essen, Germany, October 8-9, 2019, 2019) Siegburg, Marcellus; Voigtländer, Janis; Westphal, OliverWir beschreiben unsere Vorgehensweise bei der Durchführung von Online-Übungen zur Programmierung in Haskell. Der Fokus liegt insbesondere auf dem Zusammenspiel der verwendeten Sprachmittel, Programmbibliotheken und Tools, die es uns durch ihre Kombination erlauben, verschiedene Aspekte des Übungsbetriebs zu automatisieren bzw. zu erleichtern. Unser Ansatz erlaubt uns das automatische Bewerten von Einreichungen zu typischen Programmieraufgaben. Darüber hinaus sind wir in der Lage, Studierende durch geeignet gestaltete Aufgabenstellungen in Richtung bestimmter Lösungen zu führen, und währenddessen Hilfestellung durch entsprechendes Feedback zu geben.
- KonferenzbeitragAutomatisierte Bewertung von Java-Programmieraufgaben im Rahmen einer Moodle E-Learning Plattform(Proceedings of the Fourth Workshop "Automatische Bewertung von Programmieraufgaben" (ABP 2019), Essen, Germany, October 8-9, 2019, 2019) Gandraß, Niels; Schmolitzky, AxelDie Programmiersprache Java wird an zahlreichen Hochschulen gelehrt, um Studierende mit grundlegenden Programmierkonzepten vertraut zu machen. Zur Integration von Online-Java-Programmieraufgaben in ein Moodle LMS wurde ein Fragetyp entwickelt, welcher die parallele Ausführung sowie die automatisierte Bewertung von Quellcode auf Basis von JUnit-Tests ermöglicht. Studierende erhalten hierbei ein sofortiges und individuelles Feedback, welches dynamisch schon während der Bearbeitung einer Aufgabe erzeugt wird. In diesem Beitrag werden sowohl die technischen Details des entwickelten Fragetyps als auch erste Erfahrungen mit seinem Einsatz in der Programmierlehre an der Hochschule für AngewandteWissenschaften Hamburg thematisiert.
- KonferenzbeitragAutomatisiertes Bewerten bei der praktischen Vermittlung von Methoden des Maschinellen Lernens(Proceedings of the Sixth Workshop "Automatische Bewertung von Programmieraufgaben" (ABP 2023), 2023) Holstein, Katharina; Kozaeva, Nata; Bade, KorinnaIm Kontext der Informatiklehre für die Einführung in das Maschinelle Lernen an Hochschulen für angewandte Wissenschaften liegt ein wesentlicher Fokus auf Anwendungsszenarien und Datensätzen mit aktuellem Problembezug. Zeitgleich ist der Stand der Vorkenntnisse vor allem der Masterstudierenden sehr divers. Dazu wird im folgenden Paper dargestellt, wie die praktischen Vermittlung von Methoden des Maschinellen Lernens mit Python durch automatisiertes Testen unterstützt werden kann. Dabei liegt ein besonderer Fokus auf Lösungen für die speziellen Anforderungen der Programmierausbildung für das Maschinelle Lernen.
- KonferenzbeitragEin Datenformat zur Materialisierung variabler Programmieraufgaben(Proceedings of the Fourth Workshop "Automatische Bewertung von Programmieraufgaben" (ABP 2019), Essen, Germany, October 8-9, 2019, 2019) Garmann, RobertAutomatisiert bewertbare Programmieraufgaben dienen Studierenden zum Üben von Programmierfertigkeiten. Um mehrere verschiedene, denselben Stoff abdeckende Aufgaben zu gewinnen, lässt sich eine Aufgabe durch Einführung von Variationspunkten variabel gestalten. Die entstehende Aufgabenschablone ist Ausgangsbasis der sog. Materialisierung, der automatischen Generierung konkreter Aufgaben. Dieser Beitrag stellt ein Datenformat vor, das die automatische Materialisierung auf verschiedenen Systemen in verschiedenen Programmiersprachen ermöglichen soll. Das Datenformat gestattet Lernmanagementsystemen, variable Programmieraufgaben bei gleichzeitiger Unkenntnis des eingesetzten Autobewerters zu unterstützen.