Serviceorientiertes Datenqualitätsmanagement auf Basis von Open Source Tools
dc.contributor.author | Klingner, Julia | |
dc.contributor.author | Engelhardt, David Ramón | |
dc.contributor.author | Hinrichs, Holger | |
dc.contributor.editor | Heiß, Hans-Ulrich | |
dc.contributor.editor | Pepper, Peter | |
dc.contributor.editor | Schlingloff, Holger | |
dc.contributor.editor | Schneider, Jörg | |
dc.date.accessioned | 2018-11-27T09:59:33Z | |
dc.date.available | 2018-11-27T09:59:33Z | |
dc.date.issued | 2011 | |
dc.description.abstract | Unternehmen sind heute mehr denn je auf qualitativ hochwertige Datenbestände angewiesen, sei es zur effizienten Abwicklung des Tagesgeschäfts oder zur taktischen und strategischen Entscheidungsunterstützung. Unvollständige, inkonsistente oder redundante Daten stören den Prozessablauf, führen zu Nachbearbeitungsaufwänden und gefährden Managemententscheidungen. Umso wichtiger ist es, Datenqualitätsmängel möglichst frühzeitig zu erkennen. Wendet man den klassischen PDCA-Zyklus nach Deming [De82] auf den Bereich Datenqualität an, müssen zunächst in einer Planungsphase (Plan) aktuelle Qualitätsanforderungen an Daten sowie Messinstrumente spezifiziert werden. Bei der Ausführung von Geschäftsprozessen (Do) wird laufend die Datenqualität gemessen. Die anschließende Analyse von Messergebnissen (Check) führt - je nach Bedarf - zum Ergreifen von Verbesserungsmaßnahmen (Act), z. B. einer Datenbereinigung oder Ursachenbekämpfung. In dem studentischen Projekt DServ (Serviceorientiertes Datenqualitätsmanagement) wurde eine Softwarelösung konzipiert und implementiert, die insbesondere die Phasen Plan, Do und Check unterstützt. Die Messung der Datenqualität erfolgt dabei über einen Satz von Web Services, die mit dem Framework Apache CXF implementiert sind und über einen Apache Tomcat Server bereitgestellt werden. In einem Planungswerkzeug lassen sich Qualitätsanforderungen beschreiben und mit den Web Services assoziieren. Als Beispielszenario dient ein ETL-Prozess, der mit Pentaho Data Integration (Kettle) erstellt wurde. Im Rahmen von DServ wurde ein Plug-In für Kettle entwickelt, welches es erlaubt, die o. a. Qualitätsplanung (XML) einzulesen, mit dem ETL-Datenstrom zu verknüpfen und dynamisch die in der Planung vorgesehenen Web Services zur Qualitätsmessung aufzurufen. Messergebnisse werden in XML-Dateien abgelegt, die wiederum in ein DashboardWerkzeug eingelesen werden. Dort erfolgt eine graphische Aufbereitung, die es dem/der Qualitätsverantwortlichen erlaubt, zeitnah auf visualisierte Datenqualitätsmängel zu reagieren. Die Softwarekomponenten sind in Java geschrieben und verwenden das Binding-Werkzeug JiBX zur Abbildung von XML auf JavaObjekte und umgekehrt. | de |
dc.identifier.isbn | 978-88579-286-4 | |
dc.identifier.pissn | 1617-5468 | |
dc.identifier.uri | https://dl.gi.de/handle/20.500.12116/18714 | |
dc.language.iso | de | |
dc.publisher | Gesellschaft für Informatik e.V. | |
dc.relation.ispartof | INFORMATIK 2011 – Informatik schafft Communities | |
dc.relation.ispartofseries | Lecture Notes in Informatics (LNI) - Proceedings, Volume P-192 | |
dc.title | Serviceorientiertes Datenqualitätsmanagement auf Basis von Open Source Tools | de |
dc.type | Text/Conference Paper | |
gi.citation.endPage | 381 | |
gi.citation.publisherPlace | Bonn | |
gi.citation.startPage | 381 | |
gi.conference.date | 4.-7. Oktober 2011 | |
gi.conference.location | Berlin | |
gi.conference.sessiontitle | Regular Research Papers |
Dateien
Originalbündel
1 - 1 von 1