Autor*innen mit den meisten Dokumenten
Neueste Veröffentlichungen
- KonferenzbeitragEin Datenformat zur Materialisierung variabler Programmieraufgaben(Proceedings of the Fourth Workshop "Automatische Bewertung von Programmieraufgaben" (ABP 2019), Essen, Germany, October 8-9, 2019, 2019) Garmann, RobertAutomatisiert bewertbare Programmieraufgaben dienen Studierenden zum Üben von Programmierfertigkeiten. Um mehrere verschiedene, denselben Stoff abdeckende Aufgaben zu gewinnen, lässt sich eine Aufgabe durch Einführung von Variationspunkten variabel gestalten. Die entstehende Aufgabenschablone ist Ausgangsbasis der sog. Materialisierung, der automatischen Generierung konkreter Aufgaben. Dieser Beitrag stellt ein Datenformat vor, das die automatische Materialisierung auf verschiedenen Systemen in verschiedenen Programmiersprachen ermöglichen soll. Das Datenformat gestattet Lernmanagementsystemen, variable Programmieraufgaben bei gleichzeitiger Unkenntnis des eingesetzten Autobewerters zu unterstützen.
- KonferenzbeitragProFormA 2.0 – ein Austauschformat für automatisiert bewertete Programmieraufgaben und für deren Einreichungen und Feedback(Proceedings of the Fourth Workshop "Automatische Bewertung von Programmieraufgaben" (ABP 2019), Essen, Germany, October 8-9, 2019, 2019) Reiser, Paul; Borm, Karin; Feldschnieders, Dominik; Garmann, Robert; Ludwig, Elmar; Müller, Oliver; Priss, UtaDas seit 2011 entwickelte ProFormA-Format soll den Austausch von automatisiert bewertbaren Programmieraufgaben zwischen verschiedenen Lernmanagementsystemen und Gradern befördern. Dieser Beitrag stellt die neue Version ProFormA 2.0 vor, die neben der eigentlichen Aufgabe jetzt auch das Format der studentischen Einreichung, des Bewertungsschemas und der Grader-Antwort standardisiert.
- KonferenzbeitragRelevanz der Codequalität in einem Praktikum mit automatisch getesteten Programmierabgaben(Proceedings of the Fourth Workshop "Automatische Bewertung von Programmieraufgaben" (ABP 2019), Essen, Germany, October 8-9, 2019, 2019) Greubel, Andre; Hegemann, Tim; Ifland, Marianus; Hennecke, MartinSysteme zur automatisierten Bewertung von Programmieraufgaben bewerten üblicherweise nicht die Codequalität. In dieser Arbeit wird an einem Praktikum mit \num{212} Studierenden empirisch untersucht, welche Relevanz diese der Codequalität beimessen und welche Relevanz verschiedene Qualitätsmetriken auf das Bestehen des Praktikums haben. Des Weiteren wird analysiert, ob diese Metriken von externen Faktoren wie dem Studiengang oder der Praktikumswiederholung beeinflusst werden.
- KonferenzbeitragSecurity Considerations for Java Graders(Proceedings of the Fourth Workshop "Automatische Bewertung von Programmieraufgaben" (ABP 2019), Essen, Germany, October 8-9, 2019, 2019) Strickroth, SvenDynamic testing of student submitted solutions in evaluation systems requires the automatic compilation and execution of untrusted code. Since the code is usually written by beginners it can contain potentially harmful programming mistakes. However, the code can also be deliberately malicious in order to cheat or even cause damage to the grader. Therefore, it is necessary to run it in a secured environment. This article analyzes possible threats for graders which process Java code and points out Java specific aspects to consider when processing untrusted code.
- KonferenzbeitragTrace-Vergleich zur Feedback-Erzeugung im automatisierten E-Assessment-System JACK(Proceedings of the Fourth Workshop "Automatische Bewertung von Programmieraufgaben" (ABP 2019), Essen, Germany, October 8-9, 2019, 2019) Olbricht, ChristophAn der Universität Duisburg-Essen wird zur automatischen Korrektur von Programmieraufgaben seit mehr als zehn Jahren erfolgreich das E-Assessment-System JACK verwendet. Bisher war das Feedback von JACK auf vordefinierte Hinweise beschränkt, welche in den statischen und dynamischen Tests formuliert wurden. Für die Prüfung der Einsatztauglichkeit von Trace-Vergleichen zur Feedback-Erzeugung in JACK wurden Traces studentischer Lösungen mit Musterlösungen der Aufgaben automatisch verglichen. Hierzu musste zunächst mittels statischer Checks eine passende Musterlösung gewählt werden. Ziel war die Erzeugung eines Feedback-Markers zur Fehlererkennung, um den Studierenden erweitertes Feedback zu bieten. Es wurde festgestellt, dass bestimmte Anforderungen an Länge und Struktur der Aufgaben erfüllt sein müssen, damit der Algorithmus Feedback-Marker erzeugt.
- KonferenzbeitragAutomatische Bewertung von Haskell-Programmieraufgaben(Proceedings of the Fourth Workshop "Automatische Bewertung von Programmieraufgaben" (ABP 2019), Essen, Germany, October 8-9, 2019, 2019) Siegburg, Marcellus; Voigtländer, Janis; Westphal, OliverWir beschreiben unsere Vorgehensweise bei der Durchführung von Online-Übungen zur Programmierung in Haskell. Der Fokus liegt insbesondere auf dem Zusammenspiel der verwendeten Sprachmittel, Programmbibliotheken und Tools, die es uns durch ihre Kombination erlauben, verschiedene Aspekte des Übungsbetriebs zu automatisieren bzw. zu erleichtern. Unser Ansatz erlaubt uns das automatische Bewerten von Einreichungen zu typischen Programmieraufgaben. Darüber hinaus sind wir in der Lage, Studierende durch geeignet gestaltete Aufgabenstellungen in Richtung bestimmter Lösungen zu führen, und währenddessen Hilfestellung durch entsprechendes Feedback zu geben.
- KonferenzbeitragAutomatisierte Bewertung von Java-Programmieraufgaben im Rahmen einer Moodle E-Learning Plattform(Proceedings of the Fourth Workshop "Automatische Bewertung von Programmieraufgaben" (ABP 2019), Essen, Germany, October 8-9, 2019, 2019) Gandraß, Niels; Schmolitzky, AxelDie Programmiersprache Java wird an zahlreichen Hochschulen gelehrt, um Studierende mit grundlegenden Programmierkonzepten vertraut zu machen. Zur Integration von Online-Java-Programmieraufgaben in ein Moodle LMS wurde ein Fragetyp entwickelt, welcher die parallele Ausführung sowie die automatisierte Bewertung von Quellcode auf Basis von JUnit-Tests ermöglicht. Studierende erhalten hierbei ein sofortiges und individuelles Feedback, welches dynamisch schon während der Bearbeitung einer Aufgabe erzeugt wird. In diesem Beitrag werden sowohl die technischen Details des entwickelten Fragetyps als auch erste Erfahrungen mit seinem Einsatz in der Programmierlehre an der Hochschule für AngewandteWissenschaften Hamburg thematisiert.
- TextdokumentKompetenzen und Kompetenzmodelle zum objektorientierten Programmieren(Proceedings of the Fourth Workshop "Automatische Bewertung von Programmieraufgaben" (ABP 2019), Essen, Germany, October 8-9, 2019, 2019) Hubwieser, PeterEin wichtiges Verdienst der bahnbrechenden Large-Scale-Untersuchungen TIMMS und PISA war die Entwicklung und Durchsetzung einer neuartigen Forschungsmethodik für Lernprozesse, in deren Mittelpunkt der Kompetenzbegriff (im Sinne von Weinert) und die Messung von Kompetenzen mit Hilfe der Item Response Theory rückte. Ein Nebeneffekt war allerdings dabei die Popularisierung des Begriffs „Kompetenz“, der inzwischen in der Alltagssprache zu einer vagen Bezeichnung für „etwas können“ verkommen ist. International wird die Fachgemeinde der Informatikdidaktik (DDI) vor allem von den US-Verbänden ACM und IEEE dominiert, bei denen der Kompetenzbegriff bei weitem noch nicht die Aufmerksamkeit und Bedeutung erlangt hat wie in Europa. Daher gibt es auf internationaler Ebene bisher nur sehr wenige solide Forschungsergebnisse zu empirisch fundierten Kompetenzen oder -modellen aus der Informatik, insbesondere zum Programmieren. Für unser neues DFG-Projekt AKoFOOP haben wir uns daher zusammen mit der Essener Paluno-Gruppe vorgenommen, einige ausgewählte Kompetenzen aus dem Bereich der objektorientierten Programmierung empirisch zu identifizieren, Instrumente zu deren Messung zu entwickeln und auf der Grundlage dieser Vorarbeiten das Feedback bei der automatischen Programmanalyse durch das JACK System zu verbessern. Die Ergebnisse sollen dann auch in unserem MOOC zur objektorientierten Programmierung (LOOP) genutzt werden. In diesem Vortrag will ich die Grundlagen der Beschreibung und Messung von Kompetenzen vorstellen und die Anwendung dieser Grundlagen im Rahmen unseres Projekts darstellen. Dabei kommt vor allem der Entwicklung von Kompetenzstruktur- und Kompetenzniveaumodellen eine besondere Bedeutung zu.
- WorkshopbeitragEinbindung einer Online-Programmierplattform in die Präsenzlehre – ein Erfahrungsbericht(Proceedings of the Fourth Workshop "Automatische Bewertung von Programmieraufgaben" (ABP 2019), Essen, Germany, October 8-9, 2019, 2019) Hinrichs, Torge; Schmolitzky, AxelOnline-Programmierplattformen bieten umfangreiche Möglichkeiten, die individuellen Programmierfähigkeiten zu verbessern. Durch die Verwendung einer solchen Plattform in einer Präsenzveranstaltung konnte die Motivation der Teilnehmer stark erhöht werden. Es wurden aber auch etliche Defizite deutlich, die in zukünftigen Plattformen, die für die Hochschullehre zugeschnitten sind, adressiert werden sollten.
- WorkshopbeitragAnsatz zur automatischen Generierung von Java-OOP-Aufgaben inkl. Bewertungsschemen(Proceedings of the Fourth Workshop "Automatische Bewertung von Programmieraufgaben" (ABP 2019), Essen, Germany, October 8-9, 2019, 2019) Döring, UlfIm Fach Algorithmen und Programmierung für Ingenieure werden an der TU Ilmenau noch papierbasierte Klausuren mit einem sehr geringen Multiple-Choice-Anteil geschrieben. Entsprechend hoch ist der Aufwand der händischen Korrektur. Zudem müssen selbst zum Zeitpunkt der Prüfung die meisten Studierenden noch als Programmieranfänger gesehen werden. Hierdurch führen Ansätze, welche compilierbaren Quellcode voraussetzen, sowohl beim Üben als auch bei Klausuren regelmäßig nicht zu angemessenen Bewertungen. Dieser Artikel beschreibt die Entwicklung eines Aufgabengenerators für einen bestimmten Aufgabentyp im Kontext von Java und OOP. Die automatische Generierung der Aufgaben soll in Bezug auf die zielgerichtete Vorbereitung auf die Prüfung den Studierenden Übungsmöglichkeiten bieten. Hinsichtlich der Klausurkontrolle sollen zudem auch Bewertungsschemen zur Anwendung bei der händischen Korrektur erzeugt werden.