Logo des Repositoriums
 

Workshop ABP 2019

Autor*innen mit den meisten Dokumenten  

Auflistung nach:

Neueste Veröffentlichungen

1 - 10 von 11
  • Konferenzbeitrag
    Ein Datenformat zur Materialisierung variabler Programmieraufgaben
    (Proceedings of the Fourth Workshop "Automatische Bewertung von Programmieraufgaben" (ABP 2019), Essen, Germany, October 8-9, 2019, 2019) Garmann, Robert
    Automatisiert bewertbare Programmieraufgaben dienen Studierenden zum Üben von Programmierfertigkeiten. Um mehrere verschiedene, denselben Stoff abdeckende Aufgaben zu gewinnen, lässt sich eine Aufgabe durch Einführung von Variationspunkten variabel gestalten. Die entstehende Aufgabenschablone ist Ausgangsbasis der sog. Materialisierung, der automatischen Generierung konkreter Aufgaben. Dieser Beitrag stellt ein Datenformat vor, das die automatische Materialisierung auf verschiedenen Systemen in verschiedenen Programmiersprachen ermöglichen soll. Das Datenformat gestattet Lernmanagementsystemen, variable Programmieraufgaben bei gleichzeitiger Unkenntnis des eingesetzten Autobewerters zu unterstützen.
  • Konferenzbeitrag
    ProFormA 2.0 – ein Austauschformat für automatisiert bewertete Programmieraufgaben und für deren Einreichungen und Feedback
    (Proceedings of the Fourth Workshop "Automatische Bewertung von Programmieraufgaben" (ABP 2019), Essen, Germany, October 8-9, 2019, 2019) Reiser, Paul; Borm, Karin; Feldschnieders, Dominik; Garmann, Robert; Ludwig, Elmar; Müller, Oliver; Priss, Uta
    Das seit 2011 entwickelte ProFormA-Format soll den Austausch von automatisiert bewertbaren Programmieraufgaben zwischen verschiedenen Lernmanagementsystemen und Gradern befördern. Dieser Beitrag stellt die neue Version ProFormA 2.0 vor, die neben der eigentlichen Aufgabe jetzt auch das Format der studentischen Einreichung, des Bewertungsschemas und der Grader-Antwort standardisiert.
  • Konferenzbeitrag
    Relevanz der Codequalität in einem Praktikum mit automatisch getesteten Programmierabgaben
    (Proceedings of the Fourth Workshop "Automatische Bewertung von Programmieraufgaben" (ABP 2019), Essen, Germany, October 8-9, 2019, 2019) Greubel, Andre; Hegemann, Tim; Ifland, Marianus; Hennecke, Martin
    Systeme zur automatisierten Bewertung von Programmieraufgaben bewerten üblicherweise nicht die Codequalität. In dieser Arbeit wird an einem Praktikum mit \num{212} Studierenden empirisch untersucht, welche Relevanz diese der Codequalität beimessen und welche Relevanz verschiedene Qualitätsmetriken auf das Bestehen des Praktikums haben. Des Weiteren wird analysiert, ob diese Metriken von externen Faktoren wie dem Studiengang oder der Praktikumswiederholung beeinflusst werden.
  • Konferenzbeitrag
    Security Considerations for Java Graders
    (Proceedings of the Fourth Workshop "Automatische Bewertung von Programmieraufgaben" (ABP 2019), Essen, Germany, October 8-9, 2019, 2019) Strickroth, Sven
    Dynamic testing of student submitted solutions in evaluation systems requires the automatic compilation and execution of untrusted code. Since the code is usually written by beginners it can contain potentially harmful programming mistakes. However, the code can also be deliberately malicious in order to cheat or even cause damage to the grader. Therefore, it is necessary to run it in a secured environment. This article analyzes possible threats for graders which process Java code and points out Java specific aspects to consider when processing untrusted code.
  • Konferenzbeitrag
    Automatische Bewertung von Haskell-Programmieraufgaben
    (Proceedings of the Fourth Workshop "Automatische Bewertung von Programmieraufgaben" (ABP 2019), Essen, Germany, October 8-9, 2019, 2019) Siegburg, Marcellus; Voigtländer, Janis; Westphal, Oliver
    Wir beschreiben unsere Vorgehensweise bei der Durchführung von Online-Übungen zur Programmierung in Haskell. Der Fokus liegt insbesondere auf dem Zusammenspiel der verwendeten Sprachmittel, Programmbibliotheken und Tools, die es uns durch ihre Kombination erlauben, verschiedene Aspekte des Übungsbetriebs zu automatisieren bzw. zu erleichtern. Unser Ansatz erlaubt uns das automatische Bewerten von Einreichungen zu typischen Programmieraufgaben. Darüber hinaus sind wir in der Lage, Studierende durch geeignet gestaltete Aufgabenstellungen in Richtung bestimmter Lösungen zu führen, und währenddessen Hilfestellung durch entsprechendes Feedback zu geben.
  • Konferenzbeitrag
    Trace-Vergleich zur Feedback-Erzeugung im automatisierten E-Assessment-System JACK
    (Proceedings of the Fourth Workshop "Automatische Bewertung von Programmieraufgaben" (ABP 2019), Essen, Germany, October 8-9, 2019, 2019) Olbricht, Christoph
    An der Universität Duisburg-Essen wird zur automatischen Korrektur von Programmieraufgaben seit mehr als zehn Jahren erfolgreich das E-Assessment-System JACK verwendet. Bisher war das Feedback von JACK auf vordefinierte Hinweise beschränkt, welche in den statischen und dynamischen Tests formuliert wurden. Für die Prüfung der Einsatztauglichkeit von Trace-Vergleichen zur Feedback-Erzeugung in JACK wurden Traces studentischer Lösungen mit Musterlösungen der Aufgaben automatisch verglichen. Hierzu musste zunächst mittels statischer Checks eine passende Musterlösung gewählt werden. Ziel war die Erzeugung eines Feedback-Markers zur Fehlererkennung, um den Studierenden erweitertes Feedback zu bieten. Es wurde festgestellt, dass bestimmte Anforderungen an Länge und Struktur der Aufgaben erfüllt sein müssen, damit der Algorithmus Feedback-Marker erzeugt.
  • Textdokument
    Kompetenzen und Kompetenzmodelle zum objektorientierten Programmieren
    (Proceedings of the Fourth Workshop "Automatische Bewertung von Programmieraufgaben" (ABP 2019), Essen, Germany, October 8-9, 2019, 2019) Hubwieser, Peter
    Ein wichtiges Verdienst der bahnbrechenden Large-Scale-Untersuchungen TIMMS und PISA war die Entwicklung und Durchsetzung einer neuartigen Forschungsmethodik für Lernprozesse, in deren Mittelpunkt der Kompetenzbegriff (im Sinne von Weinert) und die Messung von Kompetenzen mit Hilfe der Item Response Theory rückte. Ein Nebeneffekt war allerdings dabei die Popularisierung des Begriffs „Kompetenz“, der inzwischen in der Alltagssprache zu einer vagen Bezeichnung für „etwas können“ verkommen ist. International wird die Fachgemeinde der Informatikdidaktik (DDI) vor allem von den US-Verbänden ACM und IEEE dominiert, bei denen der Kompetenzbegriff bei weitem noch nicht die Aufmerksamkeit und Bedeutung erlangt hat wie in Europa. Daher gibt es auf internationaler Ebene bisher nur sehr wenige solide Forschungsergebnisse zu empirisch fundierten Kompetenzen oder -modellen aus der Informatik, insbesondere zum Programmieren. Für unser neues DFG-Projekt AKoFOOP haben wir uns daher zusammen mit der Essener Paluno-Gruppe vorgenommen, einige ausgewählte Kompetenzen aus dem Bereich der objektorientierten Programmierung empirisch zu identifizieren, Instrumente zu deren Messung zu entwickeln und auf der Grundlage dieser Vorarbeiten das Feedback bei der automatischen Programmanalyse durch das JACK System zu verbessern. Die Ergebnisse sollen dann auch in unserem MOOC zur objektorientierten Programmierung (LOOP) genutzt werden. In diesem Vortrag will ich die Grundlagen der Beschreibung und Messung von Kompetenzen vorstellen und die Anwendung dieser Grundlagen im Rahmen unseres Projekts darstellen. Dabei kommt vor allem der Entwicklung von Kompetenzstruktur- und Kompetenzniveaumodellen eine besondere Bedeutung zu.
  • Konferenzbeitrag
    Automatisierte Bewertung von Java-Programmieraufgaben im Rahmen einer Moodle E-Learning Plattform
    (Proceedings of the Fourth Workshop "Automatische Bewertung von Programmieraufgaben" (ABP 2019), Essen, Germany, October 8-9, 2019, 2019) Gandraß, Niels; Schmolitzky, Axel
    Die Programmiersprache Java wird an zahlreichen Hochschulen gelehrt, um Studierende mit grundlegenden Programmierkonzepten vertraut zu machen. Zur Integration von Online-Java-Programmieraufgaben in ein Moodle LMS wurde ein Fragetyp entwickelt, welcher die parallele Ausführung sowie die automatisierte Bewertung von Quellcode auf Basis von JUnit-Tests ermöglicht. Studierende erhalten hierbei ein sofortiges und individuelles Feedback, welches dynamisch schon während der Bearbeitung einer Aufgabe erzeugt wird. In diesem Beitrag werden sowohl die technischen Details des entwickelten Fragetyps als auch erste Erfahrungen mit seinem Einsatz in der Programmierlehre an der Hochschule für AngewandteWissenschaften Hamburg thematisiert.
  • Workshopbeitrag
    Ansatz zur automatischen Generierung von Java-OOP-Aufgaben inkl. Bewertungsschemen
    (Proceedings of the Fourth Workshop "Automatische Bewertung von Programmieraufgaben" (ABP 2019), Essen, Germany, October 8-9, 2019, 2019) Döring, Ulf
    Im Fach Algorithmen und Programmierung für Ingenieure werden an der TU Ilmenau noch papierbasierte Klausuren mit einem sehr geringen Multiple-Choice-Anteil geschrieben. Entsprechend hoch ist der Aufwand der händischen Korrektur. Zudem müssen selbst zum Zeitpunkt der Prüfung die meisten Studierenden noch als Programmieranfänger gesehen werden. Hierdurch führen Ansätze, welche compilierbaren Quellcode voraussetzen, sowohl beim Üben als auch bei Klausuren regelmäßig nicht zu angemessenen Bewertungen. Dieser Artikel beschreibt die Entwicklung eines Aufgabengenerators für einen bestimmten Aufgabentyp im Kontext von Java und OOP. Die automatische Generierung der Aufgaben soll in Bezug auf die zielgerichtete Vorbereitung auf die Prüfung den Studierenden Übungsmöglichkeiten bieten. Hinsichtlich der Klausurkontrolle sollen zudem auch Bewertungsschemen zur Anwendung bei der händischen Korrektur erzeugt werden.
  • Workshopbeitrag
    Einbindung einer Online-Programmierplattform in die Präsenzlehre – ein Erfahrungsbericht
    (Proceedings of the Fourth Workshop "Automatische Bewertung von Programmieraufgaben" (ABP 2019), Essen, Germany, October 8-9, 2019, 2019) Hinrichs, Torge; Schmolitzky, Axel
    Online-Programmierplattformen bieten umfangreiche Möglichkeiten, die individuellen Programmierfähigkeiten zu verbessern. Durch die Verwendung einer solchen Plattform in einer Präsenzveranstaltung konnte die Motivation der Teilnehmer stark erhöht werden. Es wurden aber auch etliche Defizite deutlich, die in zukünftigen Plattformen, die für die Hochschullehre zugeschnitten sind, adressiert werden sollten.