Auflistung nach Autor:in "Garmann, Robert"
1 - 8 von 8
Treffer pro Seite
Sortieroptionen
- KonferenzbeitragBewertungsaspekte und Tests in Java-Programmieraufgaben für Graja im ProFormA-Aufgabenformat(DeLFI 2016 -- Die 14. E-Learning Fachtagung Informatik, 2016) Garmann, Robert; Fricke, Peter; Bott, Oliver J.
- KonferenzbeitragEin Datenformat zur Materialisierung variabler Programmieraufgaben(Proceedings of the Fourth Workshop "Automatische Bewertung von Programmieraufgaben" (ABP 2019), Essen, Germany, October 8-9, 2019, 2019) Garmann, RobertAutomatisiert bewertbare Programmieraufgaben dienen Studierenden zum Üben von Programmierfertigkeiten. Um mehrere verschiedene, denselben Stoff abdeckende Aufgaben zu gewinnen, lässt sich eine Aufgabe durch Einführung von Variationspunkten variabel gestalten. Die entstehende Aufgabenschablone ist Ausgangsbasis der sog. Materialisierung, der automatischen Generierung konkreter Aufgaben. Dieser Beitrag stellt ein Datenformat vor, das die automatische Materialisierung auf verschiedenen Systemen in verschiedenen Programmiersprachen ermöglichen soll. Das Datenformat gestattet Lernmanagementsystemen, variable Programmieraufgaben bei gleichzeitiger Unkenntnis des eingesetzten Autobewerters zu unterstützen.
- KonferenzbeitragEvaluation automatisierter Programmbewertung bei der Vermittlung der Sprachen Java und SQL mit den Gradern "aSQLg" und "Graja" aus studentischer Perspektive(DeLFI 2013: Die 11 e-Learning Fachtagung Informatik, 2013) Stöcker, Andreas; Becker, Sebastian; Garmann, Robert; Heine, Felix; Kleiner, Carsten; Bott, Oliver J.Als Bestandteil der Informatik-Lehre werden für die Programmierausbildung vermehrt Methoden der automatisierten Programmbewertung eingesetzt. Für die Programmiersprachen Java und SQL stehen hierfür an der Hochschule Hannover die Werkzeuge \?Graja“ und \?aSQLg“ zur Verfügung. In einer Evaluationsstudie wurde ermittelt, inwieweit diese beiden Werkzeuge Studierende und Dozenten unterstützen und wo die Grenzen der Bewertungshilfen dieser Systeme liegen. Befragt wurden 56 Studierende und die Tutoren eines 2. Semesters aus dem Studiengang Informatik im Bereich der Anwendung von Graja für einen Java-Kurs und 76 Studierende im 1. Semester des Studiengangs Medizinisches Informationsmanagement im Bereich der Anwendung von aSQLg für einen Datenbanken-Kurs mit SQL.
- KonferenzbeitragDie Evaluation generischer Einbettung automatisierter Programmbewertung am Beispiel von Moodle und aSQLg(DeLFI 2014 - Die 12. e-Learning Fachtagung Informatik, 2014) Stöcker, Andreas; Becker, Sebastian; Garmann, Robert; Heine, Felix; Kleiner, Carsten; Werner, Peter; Grzanna, Sören; Bott, Oliver J.Für die automatisierte Bewertung von Lösungen zu Programmieraufgaben wurde mittlerweile eine Vielzahl an Grader-Programmen zu unterschiedlichen Programmiersprachen entwickelt. Um Lernenden wie Lehrenden Zugang zur möglichst vielen Gradern über das gewohnte LMS zu ermöglichen wird das Konzept einer generischen Web-Serviceschnittstelle (Grappa) vorgestellt, welches im Kontext einer Lehrveranstaltung evaluiert wurde.
- Conference PaperEin Format für Bewertungsvorschriften in automatisiert bewertbaren Programmieraufgaben(DELFI 2019, 2019) Garmann, RobertAutomatisiert bewertbare Programmieraufgaben definieren Tests, die auf Einreichungen angewendet werden. Da Testergebnisse nicht mit Bewertungsergebnissen gleichzusetzen sind, schlagen wir ein Beschreibungsformat vor, das Testergebnisse auf Bewertungsergebnisse abbildet. Lehrkräfte können die Abbildungsvorschrift an ihren Lehrkontext anpassen. Der Vorschlag ist unabhängig von den beteiligten Autobewertern, von den eingesetzten Benutzungsschnittstellen und von der zu lernenden Programmiersprache einsetzbar. Das Format basiert auf verschachtelten Bewertungskategorien, welche um ein Nullifikationen-Konzept ergänzt werden.
- KonferenzbeitragGrappa - die Spinne im Netz der Autobewerter und Lernmanagementsysteme(DeLFI 2015 -- Die 13. E-Learning Fachtagung Informatik, 2015) Garmann, Robert; Heine, Felix; Werner, PeterWie können wir es schaffen, unter hohen Aufwänden entstandene, automatisiert bewertbare Programmieraufgaben auf vielen verschiedenen Lernplattformen zur Verfügung zu stellen? Wie muss eine \?Verteil'-Software beschaffen sein, um Studierenden und Lehrenden, die häufig nur ein einziges Lernmanagementsystem nutzen (wollen), Zugang zu verschiedensten Autobewertern zu verschaffen? Dieser Beitrag stellt Anforderungen, Entwurfskonzepte und einige technische Details der Softwarekomponente \?Grappa' vor - einer an der Hochschule Hannover entwickelten und im Einsatz befindlichen Middleware, die auf die Anbindung verschiedener Au- tobewerter an verschiedene E-Learning-Frontends spezialisiert ist.
- KonferenzbeitragProFormA 2.0 – ein Austauschformat für automatisiert bewertete Programmieraufgaben und für deren Einreichungen und Feedback(Proceedings of the Fourth Workshop "Automatische Bewertung von Programmieraufgaben" (ABP 2019), Essen, Germany, October 8-9, 2019, 2019) Reiser, Paul; Borm, Karin; Feldschnieders, Dominik; Garmann, Robert; Ludwig, Elmar; Müller, Oliver; Priss, UtaDas seit 2011 entwickelte ProFormA-Format soll den Austausch von automatisiert bewertbaren Programmieraufgaben zwischen verschiedenen Lernmanagementsystemen und Gradern befördern. Dieser Beitrag stellt die neue Version ProFormA 2.0 vor, die neben der eigentlichen Aufgabe jetzt auch das Format der studentischen Einreichung, des Bewertungsschemas und der Grader-Antwort standardisiert.
- TextdokumentEine Taxonomie zur Variabilisierung von Programmieraufgaben(Proceedings of DELFI Workshops 2024, 2024) Brocker, Annabell; Garmann, Robert; Strickroth, Sven; Striewe, Michael; Voigtländer, JanisEin wichtiger Faktor für das Erlernen der Programmierung sind praktische Programmieraufgaben. Dabei kann es aus organisatorischen oder didaktischen Gründen hilfreich sein, wenn eine Aufgabe in mehreren, leicht unterschiedlichen Varianten vorliegt. Diese Variabilität von Programmieraufgaben zeigt sich auf verschiedenen Ebenen und erfüllt vielfältige Zwecke. Eine systematische Klassifikation von Aufgabenstellungen auf diesen Ebenen kann dabei helfen, Programmieraufgaben gezielt an unterschiedliche Lernziele und Lernende anzupassen und Systeme zu entwickeln, die Aufgaben automatisch variieren. Der Arbeitskreis E-Assessment der Fachgruppe Bildungstechnologien der Gesellschaft für Informatik e. V. stellte auf dem Workshop einen ersten Entwurf einer Taxonomie vor, die verschiedene Dimensionen der Variabilität wie Schwierigkeitsgrad, Anforderungen, Kontext und Technologie berücksichtigt. Diese Taxonomie soll Lehrenden, Curriculums-Entwickelnden, Bildungseinrichtungen und Entwickelnden von Bildungstechnologie als Instrument dienen, um Programmieraufgaben gezielt zu variieren bzw. technische Unterstützung für die Variabilität bereitzustellen und somit den unterschiedlichen Bedürfnissen der Lernenden und Zielen der Lehrenden gerecht zu werden. Im Rahmen des halbtägigen Workshops wurde die Taxonomie von den Teilnehmenden erprobt und diskutiert, um Stärken, Schwächen, Erweiterungsmöglichkeiten und Anwendungsgebiete zu identifizieren.