Auflistung nach Autor:in "Greubel, André"
1 - 10 von 25
Treffer pro Seite
Sortieroptionen
- KonferenzbeitragAkzeptanz der Nutzung von automatisiertem Assessment im Rahmen einer virtuellen Vorlesung(Proceedings of the Fifth Workshop "Automatische Bewertung von Programmieraufgaben" (ABP 2021),virtual event, October 28-29, 2021, 2021) Horn, Florian; Schiffner, Daniel; Krömker, DetlefDurch die Umstellung auf virtuelle Lehre findet auch die Verwendung von automatischen Tools zur Bewertung von Programmieraufgaben immer mehr den Einzug in die Lehre. Im Rahmen einer solchen virtuellen Vorlesung wurde eine Bewertung durch die Studierenden vorgenommen, um daraus Erkenntnisse für die zukünftige Einbettung in der Lehre zu ziehen. Die Vorlesung zielt dabei auf höhere Semester des Bachelorstudiengangs ab und nutzt dabei Vorerfahrungen der Studierenden. Insgesamt wurde Feedback von 47 Studierende durch einen Fragebogen erhoben, und daraus Rückschlüsse auf die Qualität und Einsetzbarkeit von Unit-Tests gezogen.
- TextdokumentAlgorithmenerkennung und Programmreparatur mittels Dynamischer ProgrammanalyseAlgorithmenerkennung und Programmreparatur mittels Dynamischer Programmanalyse(Proceedings of the Sixth Workshop "Automatische Bewertung von Programmieraufgaben" (ABP 2023), 2023) Zuleger, FlorianIn diesem Vortrag beschreibe ich zwei Ansätze zur Erkennung der algorithmischen Idee eines Programms und ihre Anwendung in der Feedback-Generierung für einführende Program-mieraufgaben. Beide Techniken basieren auf der dynamischen Programmanalyse, in Verbindung mit Constraintprogrammierung. Die erste Technik ist halbautomatisch und zielt darauf ab, Performanceprobleme in Programmen zu finden. Die zweite Technik verwendet einen großen Korpus korrekter Programme, die anhand von syntaktischen Kriterien und Programmausführungen geclustert und anschließend zur Reparatur fehlerhafter Programme verwendet werden.
- KonferenzbeitragAn Architecture for the Automated Assessment of Web Programming Tasks(Proceedings of the Fifth Workshop "Automatische Bewertung von Programmieraufgaben" (ABP 2021),virtual event, October 28-29, 2021, 2021) Aubele, Lara; Martin, Leon; Hirmer, Tobias; Henrich, AndreasAutomatically assessing students' solutions to programming tasks in the domain of web programming requires special means due to the characteristics of web applications. This paper proposes an architecture for a web-based learning application tailored to this domain. For the implementation of the automated assessment of programming tasks, we make use of end-to-end testing and container virtualization. This allows, in contrast to other popular approaches, the coverage of tasks that include special operations like DOM manipulations, which alter the user interface of web applications, in a way that is convenient for both students and instructors. We demonstrate the capabilities and limitations of the architecture based on two common usage scenarios.
- KonferenzbeitragAutomated Detection of Bugs in Error Handling for Teaching Secure C Programming(Proceedings of the Sixth Workshop "Automatische Bewertung von Programmieraufgaben" (ABP 2023), 2023) Schrötter, Max; Falk, Maximilian; Schnor, BettinaThe Low-Level programming language C is widely used for Operating Systems, Embedded Systems and other performance critical applications. Since these applications are often security critical, they require secure programming. The C language on the other hand allows novice programmers to write insecure code easily. This makes it especially important to teach secure programming and give students feedback on potential security issues. One critical bug that is often overlooked is the incorrect handling of errors. In this paper, we present an Error Handling Analyzer (EHA) for the CoFee framework. The EHA detects missing error handling and incorrect error handling using the Clang Static Analyzer. We evaluated EHA on 100 student submissions and found that error handling bugs are a common mistake and that EHA can detect more than 80 % of the error handling bugs in these submissions.
- KonferenzbeitragAutomatic Evaluation of Haskell Assignments Using Existing Haskell Tooling(Proceedings of the Sixth Workshop "Automatische Bewertung von Programmieraufgaben" (ABP 2023), 2023) Prokosch, Thomas; Strickroth, SvenLearning Haskell is hard for many students because of its functional nature. What is more, Haskell uses a sophisticated type system that many students find quite confusing in the beginning. Therefore, providing timely feedback regarding correctness and quality for student Haskell solutions is important, a challenge particularly in large courses. Computer-assisted correction of submissions offers a way to help tutors and students alike, but this requires the computer to understand the language. Parsing the student submissions into a syntax tree and analyzing the syntax tree is one possibility, however, this paper describes a more straightforward approach that uses only a Haskell compiler and a few standard tools. Based on a migration of a Haskell course with manual to automatic correction we classified assignment into different categories and describe this approach in detail for each category.
- KonferenzbeitragAutomatisiertes Bewerten bei der praktischen Vermittlung von Methoden des Maschinellen Lernens(Proceedings of the Sixth Workshop "Automatische Bewertung von Programmieraufgaben" (ABP 2023), 2023) Holstein, Katharina; Kozaeva, Nata; Bade, KorinnaIm Kontext der Informatiklehre für die Einführung in das Maschinelle Lernen an Hochschulen für angewandte Wissenschaften liegt ein wesentlicher Fokus auf Anwendungsszenarien und Datensätzen mit aktuellem Problembezug. Zeitgleich ist der Stand der Vorkenntnisse vor allem der Masterstudierenden sehr divers. Dazu wird im folgenden Paper dargestellt, wie die praktischen Vermittlung von Methoden des Maschinellen Lernens mit Python durch automatisiertes Testen unterstützt werden kann. Dabei liegt ein besonderer Fokus auf Lösungen für die speziellen Anforderungen der Programmierausbildung für das Maschinelle Lernen.
- KonferenzbeitragDeploy-to-Grading: Automatische Bewertung von Programmieraufgaben mit CI/CD-Pipelines(Proceedings of the Sixth Workshop "Automatische Bewertung von Programmieraufgaben" (ABP 2023), 2023) Kirsch, André; Matutat, André; Reinsch, Malte; George, Birgit Christina; Gips, CarstenIm Rahmen des Moduls Programmieren 2 des Studiengangs Informatik BA der Hochschule Bielefeld reichen Studierende seit mehreren Jahren ihre Programmierlösungen als Git-Pull-Requests ein und verlinken diese nur noch in ihrer Abgabe im Learning Management System. Bisher wurden die Lösungen der Studierenden anschließend in Präsenz mit den Lehrenden diskutiert und von diesen bewertet. Da diese Art der Bewertung viel Zeit in Anspruch nimmt, arbeiten wir an der Umstellung auf ein automatisches Bewertungssystem. Aus diesem Grund präsentieren wir in diesem Paper unser Konzept zur automatischen Bewertung von Programmieraufgaben mithilfe von Continuous Integration/Continuous Deployment-Pipelines. Im Gegensatz zu anderen automatischen Bewertungssystemen verwenden wir keine eigene Serverstruktur, sondern nutzen frei verfügbare Infrastruktur. Wir berücksichtigen dabei die einfache Übertragung auf andere Continuous Integration/Continuous Deployment-Pipelines sowie die Möglichkeit zur lokalen Ausführung.
- KonferenzbeitragErfahrungen bei der Integration des Autograding-Systems CodeOcean in die universitäre Programmierausbildung(Proceedings of the Sixth Workshop "Automatische Bewertung von Programmieraufgaben" (ABP 2023), 2023) Amthor, Peter; Döring, Ulf; Fischer, Daniel; Genath, Jonas; Kreuzberger, GuntherEine effektive und effiziente universitäre Programmierausbildung erfordert zunehmend den Einsatz automatisierter Bewertungssysteme. Im Rahmen des Projekts examING erprobt das Teilprojekt AutoPING den Einsatz des quelloffenen Autograding-Systems CodeOcean für übergreifende Lehrangebote und Prüfungen an der TU Ilmenau mit dem Ziel, selbstgesteuertes und kompetenzorientiertes Lernen zu ermöglichen und zu fördern. Der Beitrag gibt einen Überblick über erste Projekterfahrungen bei der Adaption didaktischer Szenarien in der Programmierausbildung hin zu testgetriebener Softwareentwicklung sowie der Generierung von Feedback. Es werden wesentliche Erkenntnisse aus Sicht der Studierenden und Lehrenden erörtert, Herausforderungen und Lösungsansätze zur Integration und Erweiterung von CodeOcean für neue Anwendungsfelder diskutiert sowie zukünftige Perspektiven eröffnet.
- TextdokumentErfahrungsbericht zur Qualifizierungsmaßnahme Informatik als Erweiterungsfach (Lehramt Realschule) in Bayern(Informatik für alle, 2019) Berges, Marc; Ehmann, Matthias; Gall, Rainer; Greubel, André; Günzel-Weinkamm, Nicole; Haller, Verena; Hennecke, Martin; Heuer, Ute; Kronawitter, Julia; Lindner, Annabel; Pöhner, NicolaiTeil des Programms BAYERN DIGITAL II ist die berufsbegleitende Nachqualifizierung von rund 180 Lehrerinnen und Lehrern der Realschule. Über die Ermäßigung des Stundendeputats wird den Teilnehmenden ermöglicht, sich innerhalb von zwei Jahren für das Fach Informatik an bayerischen Realschulen nachzuqualifizieren. Ausbildungsziel ist das einem regulären Studium entsprechende Staatsexamen. An mehreren universitären Standorten wurden daher entsprechende Maßnahmen aufgelegt. Durch die besonderen Rahmenbedingungen kommen vor allem Lehr- und Lernformen des „blended learning“ Konzepts zum Tragen. Zweiwöchentliche Präsenztage sorgen dabei für eine kontinuierliche Flankierung, wobei versucht wird, im Sinne des „flipped classroom“ Prinzips die Präsenzzeit möglichst lernerzentriert und interaktiv zu gestalten. Untersuchungen zur Zufriedenheit und Motivation nach dem ersten Halbjahr zeigen den Erfolg der Maßnahme, aber auch weiteres Verbesserungspotential.
- KonferenzbeitragFehlvorstellungen in der Programmierausbildung: Eine Heuristik für die semi-automatische Annotation von Fehlerkandidaten(Proceedings of the Sixth Workshop "Automatische Bewertung von Programmieraufgaben" (ABP 2023), 2023) Fischer, Björn; Panitz, Sven Eric; Dörner, RalfDie zuverlässige Erkennung von Fehlern zu Fehlvorstellungen in der Programmierausbildung stellt eine Herausforderung dar, die mit Deep Learning adressiert werden kann. In dieser Arbeit wird eine Heuristik vorgestellt, die es ermöglicht, die dafür erforderlichen Annotationen weitestgehend automatisch zu generieren. Die Heuristik verbindet Informationen aus der statischen und dynamischen Codeanalyse mit dem Ziel, mögliche Fehlalarme zu reduzieren. Erste Ergebnisse zeigen in unserem Datenfall anhand eines betrachteten Fehlertyps, dass die Heuristik in etwa der Hälfte der Fälle eine automatische Entscheidung treffen kann und dabei eine Genauigkeit von 81 % erreicht. Dies stellt eine erhebliche Verbesserung von etwa einem Drittel gegenüber den Ergebnissen von Pattern Matching dar.
- «
- 1 (current)
- 2
- 3
- »