Auflistung nach Schlagwort "Datenaufbereitung"
1 - 2 von 2
Treffer pro Seite
Sortieroptionen
- KonferenzbeitragAufbereitung augenmedizinischer Bild-, Patienten- und Diagnosedaten zum Zwecke der Forschung - Ethikrichtlinen und deren praktische Umsetzung(Mensch und Computer 2017 - Workshopband, 2017) Kowerko, Danny; Rößner, Miriam; Kahl, Stefan; Herms, Robert; Eibl, Maximilian; Engelmann, KatrinIn der vorliegenden Arbeit stellen die Authoren einen technischen Workflow vor, der darstellt wie in der Praxis gesetzliche Vorgaben im Bezug auf ethische Fragestellungen umgesetzt werden können. Dabei wird auf die rechtlichen Grundlagen auf Bundesebene eingegangen, aber auch auf die Besonderheiten auf Länderebene und der lokalen Umsetzung. Am Fallbeispiel der Kooperation zwischen der Juniorprofessur Media Computing an der TU Chemnitz und der Augenklinik des Klinikum Chemnitz gGmbH zeigen wir dabei welche Vorgaben seitens des Ethikbeauftragten einzuhalten waren hinsichtlich der Anonymisierung von Patientendaten, der Verschlüsselung, dem Transport/Transfer von der Klinik an die Universität, Speicherung und Zugriffsrechte der Daten. Eingegangen wird insbesondere auf unterschiedliche Aspekte in der retrospektiven Forschung mit Patientendaten. Damit soll insbesondere Einsteigern auf dem Gebiet der Forschung mit klinischen Daten ein erster Einblick ermöglicht werden.
- ZeitschriftenartikelBig Data Analytics im Bahnverkehr(HMD Praxis der Wirtschaftsinformatik: Vol. 56, No. 5, 2019) Hauck, Florian; Morgenstern, Sandro; Kliewer, NataliaDie Analyse von historischen Fahrtdaten bietet Bahnbetreibern die Möglichkeit Zusammenhänge zwischen Verspätungen zu erkennen, deren Ursachen besser zu verstehen und geeignete Maßnahmen zu treffen. Die gewonnenen Informationen können zum Beispiel verwendet werden, um robustere Fahrpläne zu erstellen und dadurch die Pünktlichkeit im Schienenverkehr zu verbessern. Damit die Daten ausgewertet werden können, müssen sie allerdings in einem konsistenten Zustand (das heißt vollständig und korrekt) vorliegen. Da Infrastrukturdaten sowie Soll- und Ist-Zeiten von Zugfahrten jeweils in verschiedenen Systemen erfasst werden, müssen die Daten zunächst vereinheitlicht und zusammengeführt werden. Dieser Beitrag stellt eine datengetriebene Infrastruktur-Modellierung und Integration von historischen Zugfahrtdaten vor. Dabei werden Daten der Deutschen Bahn aus einem Fahrplanjahr verwendet. Das Ziel besteht darin, systembedingte Inkonsistenzen bei der Zusammenführung der Daten zu beseitigen und die Integrität der Daten für weitere Analysen und Optimierungsansätze sicherzustellen. Außerdem werden Fahrtverläufe vereinheitlicht, damit diese besser miteinander verglichen werden können. In diesem Zusammenhang werden die Daten in ein JSON-Format transformiert, wodurch ein Vergleich von Soll- und Ist-Zeiten an allen Messpunkten möglich ist. Die Ergebnisse dieser Arbeit zeigen, dass in einem Datensatz mit 27 Mio. Zugfahrten 7 % aller Fahrten zunächst nicht für eine pauschale Weiterverarbeitung geeignet waren, weil zum Beispiel fehlende oder inkonsistente Werte vorlagen. Etwa 70 % der betroffenen Fahrten konnten automatisiert vervollständigt und harmonisiert werden. Dadurch wurde ein integrierter und bereinigter Datensatz erstellt, der als Grundlage zur Fahrplanoptimierung oder zur Analyse von Zugverspätungen verwendet werden kann. The analysis of historical trip data offers railway operators the opportunity to identify relations between delays, to better understand their causes and to take appropriate action. The information obtained can be used, for example, to create more robust timetables and thus improve punctuality in rail transport. However, for the data to be evaluated, it must be in a consistent state (i. e. complete and correct). Since infrastructure data as well as planned and actual times of train movements are recorded in different systems, the data must first be standardized and merged. This paper presents a data-driven approach for infrastructure modelling and integration of historical train running data. Data from Deutsche Bahn from one timetable year is used. The aim is to eliminate system-related inconsistencies in the consolidation of the data and to ensure the integrity of the data for further analyses and optimization approaches. In addition, the train trips are standardized so that they can be better compared with each other. In this context, the data will be transformed into a JSON format, enabling a comparison of planned and actual event times at all measuring points. The results of this work show that in a data set with 27 million train journeys, 7% of all journeys were initially not suitable for further processing because, for example, missing or inconsistent values were present. Approximately 70% of the affected trips could be completed and harmonized automatically. This resulted in the creation of an integrated and cleansed data set that can be used as a basis for timetable optimization or for the analysis of train delays.