Kriterien für die automatisierte Bewertung von user-generated educational Microcontent
dc.contributor.author | Ott, Oliver | |
dc.contributor.author | Hielscher, Michael | |
dc.contributor.editor | Trahasch, Stephan | |
dc.contributor.editor | Plötzner, Rolf | |
dc.contributor.editor | Schneider, Gerhard | |
dc.contributor.editor | Sassiat, Daniel | |
dc.contributor.editor | Gayer, Claudia | |
dc.contributor.editor | Wöhrle, Nicole | |
dc.date.accessioned | 2017-07-26T14:10:52Z | |
dc.date.available | 2017-07-26T14:10:52Z | |
dc.date.issued | 2014 | |
dc.description.abstract | Im World Wide Web entstanden in den letzten Jahren diverse Austausch- Plattformen mit freien Lern- und Lehrinhalten (OER). Bei Web-2.0-Diensten wie z.B. GeoGebra.org, Educaplay.com oder LearningApps.org stellen Autorinnen und Autoren große Mengen von nutzergenerierten Inhalten bereit, die qualitativ sehr unterschiedlich sind. Es stellt sich die Frage, ob diese Inhalte anhand von statistischen Kriterien automatisiert bewertet werden können. Der Artikel beschreibt einige mögliche und praktisch umsetzbare Bewertungskriterien, die exemplarisch an der Plattform LearningApps.org untersucht wurden. | de |
dc.identifier.isbn | 978-3-88579-627-5 | |
dc.identifier.pissn | 1617-5468 | |
dc.language.iso | de | |
dc.publisher | Gesellschaft für Informatik e.V. | |
dc.relation.ispartof | DeLFI 2014 - Die 12. e-Learning Fachtagung Informatik | |
dc.relation.ispartofseries | Lecture Notes in Informatics (LNI) - Proceedings, Volume P-233 | |
dc.title | Kriterien für die automatisierte Bewertung von user-generated educational Microcontent | de |
dc.type | Text/Conference Paper | |
gi.citation.endPage | 84 | |
gi.citation.publisherPlace | Bonn | |
gi.citation.startPage | 73 | |
gi.conference.date | 15.-17. September 2014 | |
gi.conference.location | Freiburg |
Dateien
Originalbündel
1 - 1 von 1
Vorschaubild nicht verfügbar
- Name:
- 73.pdf
- Größe:
- 662.69 KB
- Format:
- Adobe Portable Document Format