Auflistung nach Autor:in "Pengel, Norbert"
1 - 6 von 6
Treffer pro Seite
Sortieroptionen
- TextdokumentDigitalisierte Hochschuldidaktik: Qualitätssicherung von Prüfungen mit dem E-Assessment-Literacy-Tool EAs.LiT(Bildungsräume 2017, 2017) Thor, Andreas; Pengel, Norbert; Wollersheim, Heinz-WernerDie Formulierung von Learning Outcomes und deren Transparenz gegenüber Studierenden ist Grundlage für eigenverantwortliche Lernprozesse und kompetenzorientierte Prüfungen (Constructive Alignment). Das in diesem Beitrag präsentierte E-Assessment-Literacy-Tool (EAs.LiT) unterstützt hochschuldidaktisch fundiert bei der Formulierung von Learning Outcomes, der darauf basierenden Erstellung und Begutachtung von Aufgaben sowie der kriterienbasierten semi-automatischen Zusammenstellung gleichwertiger E-Prüfungen.
- KonferenzbeitragEAs.LiT v2(Workshop Gemeinschaften in Neuen Medien (GeNeMe) 2021, 2021) Meissner, Roy; Pengel, Norbert; Thor, AndreasUm Lehrende bei der Qualitätssicherung von E-Assessments vor dem Hintergrund des Constructive Alignment zu unterstützen, wurde bereits 2017 das E-Assessment-LiteracyTool (EAs.LiT) entwickelt und vorgestellt (Thor, Pengel, & Wollersheim, 2017). Mit diesem sollte auf Basis hochschulübergreifender Qualitätsstandards im Bereich E-Assessment technische und personelle Unterstützungsstrukturen zur Effektivierung kompetenzorientierter Lernprozesse und damit verbundener Leistungsüberprüfung etabliert werden, um damit auch den Wissens- und Erfahrungsaustausch von Lehrenden zu unterstützen. Im Rahmen des BMBF-geförderten Verbundvorhabens tech4comp wurde sowohl das Software-Projekt als auch die Anwendung EAs.LiT im Rahmen einer Major Revision grundlegend überarbeitet und erweitert. Neben dem Ausbau der allgemeinen Funktionalität konzentriert sich die Major Revision auf drei primäre Bereiche: die Unterstützung von Nutzer:innen durch vielfältige Automatismen und ein vollkommen überarbeitetes Nutzer:innenführungskonzept, die verlässlichere, validere und ausgewogenere Ausgestaltung erzeugter Prüfungen durch eine multidimensionale, äquivalenzorientierte Prüfungserzeugung, sowie die Schaffung von Integrationsmöglichkeiten und Anwendung dieser bei im deutschen Hochschulraum verbreiteten Lern-Management- und Prüfungssystemen. [Aus: Einleitung]
- KonferenzbeitragForecasting EduTech for the next decade. Scenario development teaching patterns in general versus academic education(Workshop Gemeinschaften in Neuen Medien (GeNeMe) 2019, 2019) Köhler, Thomas; Pengel, Norbert; Riedel, Jana; Wollersheim, WernerLearning while studying is an individual process of actively acquiring knowledge through the co-construction of knowledge resources under supervision by teaching mentors. Mentoring activity typically consists of the interaction of two areas, namely the personal relationship between mentor and mentee, as well as individualized guidance on performance at the factual level, i.e. the partial result-based evaluation of the previous and advice on the future learning process. This in-process feedback is considered to be a key impact factor in learning success in international educational research, provided that it is as direct and as accurate as possible (Hattie & Yates, 2014). [... from the Indroduction]
- Conference paperGenerative KI zur Lernenbegleitung in den Bildungswissenschaften: Implementierung eines LLM-basierten Chatbots im Lehramtsstudium(Proceedings of DELFI 2024, 2024) Soliman, Hassan; Kravcik, Milos; Neumann, Alexander Tobias; Yin, Yue; Pengel, Norbert; Haag, Maike; Wollersheim, Heinz-WernerLehramtsstudierende nehmen an einer Vielzahl von Lernaktivitäten in verschiedenen Fachbereichen teil, u.a. in den Bildungswissenschaften. Sie benötigen angemessene Unterstützung, u.a. in Form zeitnahen Feedbacks. Da ihre Anzahl steigt, ist es ein wichtiges Ziel, ihnen eine skalierbare Unterstützung zu bieten, was auch eine Herausforderung für Forschende und Entwickelnde darstellt. Als eine mögliche Lösung stellen wir einen Chatbot vor, der auf einem Large Language Model (LLM) basiert und durch bestehende Lern- und Informationsmaterialien sowie hochschuldidaktische Prozessbeschreibungen ergänzt wird. In diesem Praxisbeitrag werden Erfahrungen aus der didaktischen Konzeption und technischen Umsetzung sowie erste Ergebnisse zur Qualität von LLM-basierten Chatbot-Antworten auf inhaltliche und organisatorische Fragen eines technologiegestützten bildungswissenschaftlichen Moduls im Lehramtsstudium vorgestellt. Der Bot ist in der Lage, Kursmaterial abzurufen, zu analysieren und umfassende Antworten auf spezifische Fragen zu geben. Vorläufige Ergebnisse zeigen, dass es möglich ist, zwischen verschiedenen Kontexten, in denen die Studierenden arbeiten, zu unterscheiden und ihnen eine schnelle Antwort zu geben, die das relevante Material berücksichtigt.
- KonferenzbeitragMöglichkeiten digital gestützter, hochschulübergreifender Kooperation in der Lehre. Fallbeispiele aus der sächsischen Hochschulbildung(Workshop Gemeinschaften in Neuen Medien (GeNeMe) 2018, 2018) Köhler, Thomas; Pengel, Norbert; Reinhold, Simone; Wienmeister, Annett; Kandler, Susanne; Löwe, Oliver; Schulz, Sandra; Zimmermann, Theresia; Schade, Cornelia; Sonntag, Ralph; Halgasch, Jana; Adler, Tom. C.; Oertel, Dagmar; Wollersheim, Heinz-WernerVor dem Hintergrund einer zunehmenden Digitalisierung auch des akademischen Bildungssektors stellt sich die Frage nach Möglichkeiten digital gestützter hochschulübergreifender Kooperation in der Lehre. Der Beitrag versucht, Fallbeispiele aus sächsischen Hochschulen in einer den Einzelfall übergreifenden Darstellung in den Blick zu nehmen und zu systematisieren. Grundlage dafür ist das Verbundprojekt „Lehrkooperationen“, welches durch die Initiative „Bildungsportal Sachsen“ noch bis Ende 2018 gefördert wird. Das zugrundeliegende Programm des Arbeitskreis E-Learning der Landesrektoren-konferenz Sachsen hatte die digital gestützte hochschulübergreifende Kooperation in der Lehre, für die es an den sächsischen Hochschulen bisher nur wenige Beispiele gibt, explizit als Förderschwerpunkt benannt.
- KonferenzbeitragÖkonomie und Fairness von Constructed-Response-Items in E-Assessments(Workshop Gemeinschaften in Neuen Medien (GeNeMe) 2019, 2019) Pengel, Norbert; Hawlitschek, Patrick; Karapanos, MariosDas Testen kognitiver Fähigkeiten ist ein Standardproblem in der Leistungsdiagnostik. Typische Anwendungsfelder sind Lernstandsüberprüfungen, Zulassungs- und Auswahlverfahren an Schulen und Hochschulen, aber auch Eignungs- und Einstellungsverfahren im betrieblichen Kontext. Sollen nicht nur einige wenige Personen, sondern größere Kohorten getestet werden, kommen aus testökonomischen Gründen vermehrt computerbasierte Tests (E-Assessments) und Aufgaben mit geschlossenem Antwortformat (Selected-Response, SR) zum Einsatz. Auf diese Weise lassen sich Tests automatisch auswerten, was gegenüber papierbasierten Tests den Testaufwand erheblich reduziert und eine zeitnahe Rückmeldung der Ergebnisse an die getesteten Personen erlaubt (Michel, Goertz, Radomski, Fritsch, & Baschour, 2015). Neben der guten Testökonomie besitzen SR-Tests auch aus psychometrischer Sicht Vorteile. So lassen sie sich nicht nur objektiver auswerten, sondern auch zeitsparender beantworten, wodurch eine größere Zahl an Aufgaben bei gleicher Testdauer gestellt werden kann Lindner, Strobel, & Köller, 2015). Dennoch werden SR-Tests insbesondere an Hochschulen häufig als besonders rigide Prüfungsform wahrgenommen (Kubinger, 2014). Eine wiederkehrend zu beobachtende Strategie scheint deshalb – wohl auch um die Akzeptanz dieser Prüfungsform zu erhöhen – die Ergänzung von E-Assessments um Freitextaufgaben (Constructed-Response, CR) zu sein. Hochschulprüfungen entscheiden über den Zugang zu erstrebenswerten Gütern einer Gesellschaft (Huinink & Schröder, 2014) und ziehen berufliche Auswahlentscheidungen nach sich (Rekrutierungsfunktion; Tsarouha, 2019). Vor dem Hintergrund der grundgesetzlich geregelten Berufswahlfreiheit (Artikel 12, GG) ergibt sich die berechtigte Forderung nach einer hohen diagnostischen Güte der eingesetzten Tests. Gleichzeitig erfordern die institutionellen Rahmenbedingungen an Hochschulen ökonomische Testmethoden. Aktuell fehlt es an Arbeiten, die den Verlust an Testökonomie durch Hinzunahme von CR-Items quantifizieren und den möglichen Gewinn an diagnostischer Güte zueinander ins Verhältnis setzen. Zudem weisen Schulleistungsstudien (Lafontaine & Monseur, 2009; Lissitz, Hou, & Slater, 2012; Reardon, Kalogrides, Fahle, Podolsky, & Zárate, 2018) und Untersuchungen aus dem Hochschulkontext (Arthur & Everaert, 2012) auf geschlechterdifferenzielle Effekte verschiedener Itemformate hin, die zu einem Problem für die Testfairness werden können. Beide Forschungsfragen adressiert der vorliegende Beitrag anhand einer empirischen Analyse von Daten einer E-Klausur, die die Abschlussprüfung eines erziehungswissenschaftlichen Moduls im universitären Lehramtsstudium bildet. [...aus der Einleitung]