Auflistung nach Autor:in "Hinrichs, Holger"
1 - 4 von 4
Treffer pro Seite
Sortieroptionen
- KonferenzbeitragCloud Learning mit dem quelloffenen Autorensystem LOOP – Konzepte und Erfahrungen(INFORMATIK 2013 – Informatik angepasst an Mensch, Organisation und Umwelt, 2013) Muschal, Thomas; Wittke, Andreas; Vorreiter, Marc; Hinrichs, HolgerIm eLearning-Bereich gewinnt die technische Anforderung, mit mobilen Endgeräten auf Lerninhalte zugreifen zu können, zunehmend an Bedeutung. Ein zentraler Online-Speicherort, von dem die Inhalte – optimiert für das jeweilige Endgerät – bereitgestellt werden, ist zur Erfüllung dieser Anforderung elementar. Neben den technischen haben auch gesellschaftliche Entwicklungen einen Einfluss auf Content-Erstellung und Lernverhalten: Kollaborative, ortsund zeitunabhängige Arbeitsformen sowie die Erwartung laufend aktualisierter Inhalte verdeutlichen die Dynamisierung in diesem Bereich. Der von Web-Applikationen bekannte Status „Perpetual Beta“ weitet sich damit auf die Lerninhalte und ihre verkürzten Aktualisierungszyklen aus. Das quelloffene Autorenwerkzeug LOOP hat den Anspruch, den genannten Herausforderungen gerecht zu werden. Es vereint grundlegende Funktionen bewährter Konzepte wie Wikis und eBooks mit der Möglichkeit, flexibel Web-2.0-Dienste zu integrieren. eLearning wird damit immer mehr zum Cloud Learning. Erste Erfahrungen mit dem Einsatz von LOOP in der Hochschullehre zeigen jedoch auch, dass der Paradigmenwechsel Akzeptanzprobleme mit sich bringen kann, die ein sensibles Change Management erfordern.
- KonferenzbeitragCollaborative eLearning mit Sakai(INFORMATIK 2006 – Informatik für Menschen – Band 2, Beiträge der 36. Jahrestagung der Gesellschaft für Informatik e.V. (GI), 2006) Wittke, Andreas; Hinrichs, HolgerDie kommende Generation von eLearning-Systemen wird entscheidend geprägt sein durch die Integration von Zusammenarbeit und Lernen. In diesem Beitrag wird mit Sakai eine Open Source-Plattform für das „collaborative eLearning“ vorgestellt. Ursprünglich initiiert durch die Universitäten von Michigan, Indiana und Stanford sowie durch das MIT, tragen heute ca. 100 Institutionen zur Weiterentwicklung des Sakai-Projekts bei. Der Beitrag gibt einen Überblick über die Historie, die Community und die technische Architektur von Sakai, setzt die Software in Bezug zu anderen Open Source-Systemen und gibt einen Ausblick auf zukünftige Entwicklungen.
- KonferenzbeitragEinsatz von Open Source-Software in der Lehre am Beispiel einer Vorlesung zu XMLTechnologien(Informatk 2005. Informatik Live! Band 1, 2005) Hinrichs, HolgerDieser Artikel beschreibt eine Reihe von Open Source-Werkzeugen, -Bibliotheken und -Frameworks, die sich in besonderer Weise zum Einsatz in der Lehre von XML-Technologien eignen. Die einzelnen Produkte werden jeweils in einen Anwendungskontext eingeordnet und in ihrer Funktionalität grob skizziert.
- KonferenzbeitragServiceorientiertes Datenqualitätsmanagement auf Basis von Open Source Tools(INFORMATIK 2011 – Informatik schafft Communities, 2011) Klingner, Julia; Engelhardt, David Ramón; Hinrichs, HolgerUnternehmen sind heute mehr denn je auf qualitativ hochwertige Datenbestände angewiesen, sei es zur effizienten Abwicklung des Tagesgeschäfts oder zur taktischen und strategischen Entscheidungsunterstützung. Unvollständige, inkonsistente oder redundante Daten stören den Prozessablauf, führen zu Nachbearbeitungsaufwänden und gefährden Managemententscheidungen. Umso wichtiger ist es, Datenqualitätsmängel möglichst frühzeitig zu erkennen. Wendet man den klassischen PDCA-Zyklus nach Deming [De82] auf den Bereich Datenqualität an, müssen zunächst in einer Planungsphase (Plan) aktuelle Qualitätsanforderungen an Daten sowie Messinstrumente spezifiziert werden. Bei der Ausführung von Geschäftsprozessen (Do) wird laufend die Datenqualität gemessen. Die anschließende Analyse von Messergebnissen (Check) führt - je nach Bedarf - zum Ergreifen von Verbesserungsmaßnahmen (Act), z. B. einer Datenbereinigung oder Ursachenbekämpfung. In dem studentischen Projekt DServ (Serviceorientiertes Datenqualitätsmanagement) wurde eine Softwarelösung konzipiert und implementiert, die insbesondere die Phasen Plan, Do und Check unterstützt. Die Messung der Datenqualität erfolgt dabei über einen Satz von Web Services, die mit dem Framework Apache CXF implementiert sind und über einen Apache Tomcat Server bereitgestellt werden. In einem Planungswerkzeug lassen sich Qualitätsanforderungen beschreiben und mit den Web Services assoziieren. Als Beispielszenario dient ein ETL-Prozess, der mit Pentaho Data Integration (Kettle) erstellt wurde. Im Rahmen von DServ wurde ein Plug-In für Kettle entwickelt, welches es erlaubt, die o. a. Qualitätsplanung (XML) einzulesen, mit dem ETL-Datenstrom zu verknüpfen und dynamisch die in der Planung vorgesehenen Web Services zur Qualitätsmessung aufzurufen. Messergebnisse werden in XML-Dateien abgelegt, die wiederum in ein DashboardWerkzeug eingelesen werden. Dort erfolgt eine graphische Aufbereitung, die es dem/der Qualitätsverantwortlichen erlaubt, zeitnah auf visualisierte Datenqualitätsmängel zu reagieren. Die Softwarekomponenten sind in Java geschrieben und verwenden das Binding-Werkzeug JiBX zur Abbildung von XML auf JavaObjekte und umgekehrt.