Auflistung nach Schlagwort "Programmieraufgaben"
1 - 5 von 5
Treffer pro Seite
Sortieroptionen
- Conference PaperEin Format für Bewertungsvorschriften in automatisiert bewertbaren Programmieraufgaben(DELFI 2019, 2019) Garmann, RobertAutomatisiert bewertbare Programmieraufgaben definieren Tests, die auf Einreichungen angewendet werden. Da Testergebnisse nicht mit Bewertungsergebnissen gleichzusetzen sind, schlagen wir ein Beschreibungsformat vor, das Testergebnisse auf Bewertungsergebnisse abbildet. Lehrkräfte können die Abbildungsvorschrift an ihren Lehrkontext anpassen. Der Vorschlag ist unabhängig von den beteiligten Autobewertern, von den eingesetzten Benutzungsschnittstellen und von der zu lernenden Programmiersprache einsetzbar. Das Format basiert auf verschachtelten Bewertungskategorien, welche um ein Nullifikationen-Konzept ergänzt werden.
- KonferenzbeitragRelevanz der Codequalität in einem Praktikum mit automatisch getesteten Programmierabgaben(Proceedings of the Fourth Workshop "Automatische Bewertung von Programmieraufgaben" (ABP 2019), Essen, Germany, October 8-9, 2019, 2019) Greubel, Andre; Hegemann, Tim; Ifland, Marianus; Hennecke, MartinSysteme zur automatisierten Bewertung von Programmieraufgaben bewerten üblicherweise nicht die Codequalität. In dieser Arbeit wird an einem Praktikum mit \num{212} Studierenden empirisch untersucht, welche Relevanz diese der Codequalität beimessen und welche Relevanz verschiedene Qualitätsmetriken auf das Bestehen des Praktikums haben. Des Weiteren wird analysiert, ob diese Metriken von externen Faktoren wie dem Studiengang oder der Praktikumswiederholung beeinflusst werden.
- TextdokumentEine Taxonomie zur Variabilisierung von Programmieraufgaben(Proceedings of DELFI Workshops 2024, 2024) Brocker, Annabell; Garmann, Robert; Strickroth, Sven; Striewe, Michael; Voigtländer, JanisEin wichtiger Faktor für das Erlernen der Programmierung sind praktische Programmieraufgaben. Dabei kann es aus organisatorischen oder didaktischen Gründen hilfreich sein, wenn eine Aufgabe in mehreren, leicht unterschiedlichen Varianten vorliegt. Diese Variabilität von Programmieraufgaben zeigt sich auf verschiedenen Ebenen und erfüllt vielfältige Zwecke. Eine systematische Klassifikation von Aufgabenstellungen auf diesen Ebenen kann dabei helfen, Programmieraufgaben gezielt an unterschiedliche Lernziele und Lernende anzupassen und Systeme zu entwickeln, die Aufgaben automatisch variieren. Der Arbeitskreis E-Assessment der Fachgruppe Bildungstechnologien der Gesellschaft für Informatik e. V. stellte auf dem Workshop einen ersten Entwurf einer Taxonomie vor, die verschiedene Dimensionen der Variabilität wie Schwierigkeitsgrad, Anforderungen, Kontext und Technologie berücksichtigt. Diese Taxonomie soll Lehrenden, Curriculums-Entwickelnden, Bildungseinrichtungen und Entwickelnden von Bildungstechnologie als Instrument dienen, um Programmieraufgaben gezielt zu variieren bzw. technische Unterstützung für die Variabilität bereitzustellen und somit den unterschiedlichen Bedürfnissen der Lernenden und Zielen der Lehrenden gerecht zu werden. Im Rahmen des halbtägigen Workshops wurde die Taxonomie von den Teilnehmenden erprobt und diskutiert, um Stärken, Schwächen, Erweiterungsmöglichkeiten und Anwendungsgebiete zu identifizieren.
- WorkshopTippfilter: Programmierprojekte für den Unterricht einfacher pflegen(INFOS 2023 - Informatikunterricht zwischen Aktualität und Zeitlosigkeit, 2023) Lautebach, UrsDas Werkzeug Tippfilter soll Lehrpersonen die Erstellung und Pflege von Programmieraufgaben erleichtern: Statt zwei Versionen der Aufgaben mit und ohne Musterlösung in zwei Ordnern zu pflegen, kann man mit Tippfilter alles in einer Datei erstellen – und später nach Bedarf filtern. Das erlaubt sehr flexibel die Bereitstellung unterschiedlichster Versionen des gleichen Projekts, die sich etwa in gestaffelten Hilfen unterscheiden können (mit/ohne Lösungen, Kurztipps, ausführlichen Hilfestellungen), aber auch hinsichtlich der Zielgruppen (Grund/Leistungskurs, Unterricht/Fortbildung) oder einzeln ausgewählter Teile des Projekts (mit/ohne Unit-Tests, nur Quicksort/Mergesort/Bubblesort usw.).
- KonferenzbeitragWieviel Ähnlichkeit ist in Programmierprüfungen normal?(Proceedings of the Sixth Workshop "Automatische Bewertung von Programmieraufgaben" (ABP 2023), 2023) Olbricht, Christoph; Schypula, Rafael; Striewe, MichaelWerkzeuge zur Identifikation von Plagiaten in Programmieraufgabe messen häufig die Ähnlichkeit zwischen Abgaben. Die Interpretation dieser Werte zur Identifikation von Verdachts¬momenten ist jedoch schwierig, da eine gewisse Ähnlichkeit von Abgaben unvermeidlich ist. Es ist insbesondere unklar, welche Ähnlichkeitsverteilung innerhalb einer Kohorte ohne Plagiate als normal angesehen werden kann und welche Abweichungen davon als Verdachtsmoment genutzt werden können. Der vorliegende Beitrag vergleicht dazu unter Nutzung zweier Werkzeuge zur Plagiatserkennung unter Aufsicht erstellte Abgaben zu Prüfungsaufgaben mit solchen, die ohne Aufsicht entstanden sind. Die Ergebnisse zeigen, dass die Ermittlung einer „Baseline“ für die erwartbare Ähnlichkeit schwierig ist, da auch schon kleine Änderungen der Aufgabenstellung starke Auswirkungen auf die Ähnlichkeit der Lösungen haben können.