Auflistung nach Autor:in "Brocker, Annabell"
1 - 8 von 8
Treffer pro Seite
Sortieroptionen
- KonferenzbeitragAxEL - Eine modulare Softwarekomponente für ein dediziertes E-Prüfungssystem zur Generierung von xAPI Statements für Assessment Analytics(21. Fachtagung Bildungstechnologien (DELFI), 2023) Breuer, Martin; Brocker, Annabell; Persike, Malte; Schroeder, UlrikUm Lehrende zukünftig bei der Qualitätssicherung digitaler Prüfungen sowie der Optimierung von prüfungsbezogenen Lehr- und Lerninhalten zu unterstützen, ist die Entwicklung von Assessment Analytics Tools für das E-Prüfungssystem Dynexite geplant. Dieser Beitrag stellt die Entwicklung einer modularen Softwarekomponente vor, die bestehende Interaktions- und Ergebnisdaten von Studierenden in xAPI Statements umwandelt und diese der zentral an der Hochschule bereitgestellten Learning Analytics Infrastruktur zugänglich macht. Die vorgestellte Softwarekomponente und die geplante Weiterverarbeitung der Daten werden in das Learning Analytics Referenzmodell nach Chatti et. al. eingeordnet, um den Datenbedarf zu ermitteln. Die Softwarekomponente ermöglicht Untersuchungen auf unterschiedlichen Detailebenen. Für die Qualitätssicherung der Prüfungen ist meist eine genaue Zuordnung von feingranularen Interaktionsdaten auf Eingabemöglichkeiten von Interesse. Bei der diagnostischen Untersuchung von Ergebnisdaten kann hingegen auf Detailstrukturen verzichtet werden.
- Conference paperCorrelation of Error Metrics in Python CS1 Courses(Proceedings of DELFI 2024, 2024) Brocker, Annabell; Schroeder, UlrikTimely and effective feedback is essential for novice programmers. Despite significant advancements in Large Language Models enabling the generation of understandable feedback in CS1 courses, determining appropriate timing for delivering feedback automatically remains a persistent challenge. Compiler messages serve as a fundamental communication channel between programmers and computers, signaling syntactic and runtime errors. Various metrics associated with these messages could potentially signify the need for intervention. Hence, it is imperative to explore the correlations among these error metrics. This study conducts a comprehensive analysis of multiple public Python datasets to evaluate error metrics and explore their correlations. The findings offer insights into a potential indicator for determining appropriate timing of feedback in programming education.
- KonferenzbeitragA Grammar and Parameterization-Based Generator for Python Programming Exercises(Proceedings of the Sixth Workshop "Automatische Bewertung von Programmieraufgaben" (ABP 2023), 2023) Peeß, Philipp; Brocker, Annabell; Röpke, René; Schroeder, UlrikAs the importance of programming education grows, the demand for a sufficient number of practical exercises in courses also increases. To accommodate this need without significantly increasing the instructors' workload, a programming exercise generator capable of generating exercises for independent practice is considered. This research mainly focuses on determining suitable generation methods and creating a modular and extensible generator structure. The current generator implementation uses parameterization and a grammar-based generation approach in order to provide generated exercises directly to students in their programming environment. Furthermore, the generator can act as a foundation for further research and be extended with additional generation methods, creating the possibility of exploring artificial intelligence for the generation of programming exercises.
- TextdokumentInfoSphere – Schülerlabor Informatik(INFORMATIK 2021, 2021) Brocker, Annabell; Schramm, Christina; Schroeder, UlrikEin Schülerlabor ist ein außerschulischer Lernort, der Schülerinnen und Schülern einen zielgruppengerechten Zugang zu aktuellen (MINT)-Themen über den schulischen Betrieb hinaus ermöglichen soll. Das InfoSphere fokussiert dabei die informatischen Themengebiete und deren Relevanz in Alltagssituationen. Hauptanliegen ist dabei, den Schülerinnen und Schüler einen selbstständigen und explorativen Zugang zu neuen und spannenden Themen zu bieten und sie durch individuelle Betreuung auf diesem Weg zu unterstützten. Konkret bietet das InfoSphere begleitete Präsenz- und Online-Workshop an und stellt darüber hinaus (Selbst-)Lernmaterialien als OER bereit.
- WorkshopbeitragIntegration von Gamification und Learning Analytics in Jupyter(DELFI 2021, 2021) Brocker, Annabell; Judel, Sven; Schroeder, UlrikDas Erlernen von Programmiersprachen und Programmierkonzepten ist für Anfängerinnen und Anfänger mit vielen Hürden verbunden, was zu hohen Abbruch- und Durchfallquoten führt. Als Gründe werden häufig fehlende Motivation oder zu wenig interaktive Materialien genannt. Die Nutzung von Jupyter Notebooks als interaktive Programmierumgebung kann als Lösungsansatz für das zweite Problem genutzt werden. Ein Ansatz zur Steigerung der Motivation stellt Gamification dar. In diesem Poster wird ein Ansatz zur Integration von Gamification in Jupyter Notebooks und deren übergeordneten Organisationseinheiten JupyterLab und JupyterHub präsentiert. Verschiedene Spielelemente und –Mechaniken werden in die Programmierumgebung integrieren um die Motivation der Lernenden zu steigern. Mittels Learning- und Gamification Analytics werden die Maßnahmen und deren Wirkung beobachtet und evaluiert.
- KonferenzbeitragInvestigating Feedback Types in JupyterLab for Programming Novices(21. Fachtagung Bildungstechnologien (DELFI), 2023) Brocker, Annabell; Schroeder, UlrikProviding valuable, actionable feedback, such as small-step hints and explanations of errors and misconceptions, is essential for guiding novice programmers towards solutions while fostering their code development. This paper presents a comprehensive review of feedback types, available within the interactive programming environment JupyterLab. We distinguish between lower-level, immediate feedback during programming and higher-level, follow-up feedback for reoccurring misconceptions and problems over time. We further discuss potential extensions to provide even more feedback in JupyterLab, such as valuation and recognition of correct activities.
- Konferenzbeitragpycheckmate – Addressing Challenges in Automatic Code Evaluation and Feedback Generation for Python Novices(Proceedings of the Sixth Workshop "Automatische Bewertung von Programmieraufgaben" (ABP 2023), 2023) Brocker, Annabell; Schroeder, UlrikIn academic settings, code assessment differs from traditional software testing by encompassing not only functional correctness but also critical structural aspects like naming conventions and programming concepts. Conventional static analysis tools like Pylint and Flake8, along with input-output unit tests, are deemed inadequate for introductory Python courses. To address this gap, this paper introduces pycheckmate, a library, tailored for automatic testing and targeted feedback in introductory Python programming courses.
- TextdokumentEine Taxonomie zur Variabilisierung von Programmieraufgaben(Proceedings of DELFI Workshops 2024, 2024) Brocker, Annabell; Garmann, Robert; Strickroth, Sven; Striewe, Michael; Voigtländer, JanisEin wichtiger Faktor für das Erlernen der Programmierung sind praktische Programmieraufgaben. Dabei kann es aus organisatorischen oder didaktischen Gründen hilfreich sein, wenn eine Aufgabe in mehreren, leicht unterschiedlichen Varianten vorliegt. Diese Variabilität von Programmieraufgaben zeigt sich auf verschiedenen Ebenen und erfüllt vielfältige Zwecke. Eine systematische Klassifikation von Aufgabenstellungen auf diesen Ebenen kann dabei helfen, Programmieraufgaben gezielt an unterschiedliche Lernziele und Lernende anzupassen und Systeme zu entwickeln, die Aufgaben automatisch variieren. Der Arbeitskreis E-Assessment der Fachgruppe Bildungstechnologien der Gesellschaft für Informatik e. V. stellte auf dem Workshop einen ersten Entwurf einer Taxonomie vor, die verschiedene Dimensionen der Variabilität wie Schwierigkeitsgrad, Anforderungen, Kontext und Technologie berücksichtigt. Diese Taxonomie soll Lehrenden, Curriculums-Entwickelnden, Bildungseinrichtungen und Entwickelnden von Bildungstechnologie als Instrument dienen, um Programmieraufgaben gezielt zu variieren bzw. technische Unterstützung für die Variabilität bereitzustellen und somit den unterschiedlichen Bedürfnissen der Lernenden und Zielen der Lehrenden gerecht zu werden. Im Rahmen des halbtägigen Workshops wurde die Taxonomie von den Teilnehmenden erprobt und diskutiert, um Stärken, Schwächen, Erweiterungsmöglichkeiten und Anwendungsgebiete zu identifizieren.