Auflistung nach Schlagwort "Big Data Analytics"
1 - 10 von 14
Treffer pro Seite
Sortieroptionen
- TextdokumentAngepasstes Item Set Mining zur gezielten Steuerung von Bauteilen in der Serienfertigung von Fahrzeugen(BTW 2019 – Workshopband, 2019) Spieß, Marco; Reimann, PeterQualitätsprobleme im Bereich Fahrzeugbau können nicht nur zum Imageverlust des Unternehmens führen, sondern auch mit entsprechend hohen Kosten einhergehen. Wird ein Bauteil als Verursacher eines Qualitätsproblems identifiziert, muss dessen Verbau gestoppt werden. Mit einer Datenanalyse kann herausgefunden werden, welche Fahrzeugkonfigurationen Probleme mit diesem fehlerverursachenden Bauteil haben. Im Rahmen der domänenspezifischen Problemstellung wird in diesem Beitrag die Anwendbarkeit von Standardalgorithmen aus dem Bereich Data-Mining untersucht. Da die Analyseergebnisse auf Standardausstattungen hinweisen, sind diese nicht zielführend. Für dieses Businessproblem von Fahrzeugherstellern haben wir einen Data-Mining Algorithmus entwickelt, der das Vorgehen des Item Set Mining der Assoziationsanalyse an das domänenspezifische Problem anpasst. Er unterscheidet sich zum klassischen Apriori-Algorithmus in der Beschneidung des Ergebnisraumes sowie in der nachfolgenden Aufbereitung und Verwendungsweise der Item Sets. Der Algorithmus ist allgemeingültig für alle Fahrzeughersteller anwendbar. Die Ergebnisse sind anhand eines realen Anwendungsfalls evaluiert worden, bei dem durch die Anwendung unseres Algorithmus 87% der Feldausfälle verhindert werden können.
- TextdokumentAssessing the Impact of Driving Bans with Data Analysis(BTW 2019 – Workshopband, 2019) Woltmann, Lucas; Hartmann, Claudio; Lehner, Wolfgang
- ZeitschriftenartikelBig Data Analytics im Bahnverkehr(HMD Praxis der Wirtschaftsinformatik: Vol. 56, No. 5, 2019) Hauck, Florian; Morgenstern, Sandro; Kliewer, NataliaDie Analyse von historischen Fahrtdaten bietet Bahnbetreibern die Möglichkeit Zusammenhänge zwischen Verspätungen zu erkennen, deren Ursachen besser zu verstehen und geeignete Maßnahmen zu treffen. Die gewonnenen Informationen können zum Beispiel verwendet werden, um robustere Fahrpläne zu erstellen und dadurch die Pünktlichkeit im Schienenverkehr zu verbessern. Damit die Daten ausgewertet werden können, müssen sie allerdings in einem konsistenten Zustand (das heißt vollständig und korrekt) vorliegen. Da Infrastrukturdaten sowie Soll- und Ist-Zeiten von Zugfahrten jeweils in verschiedenen Systemen erfasst werden, müssen die Daten zunächst vereinheitlicht und zusammengeführt werden. Dieser Beitrag stellt eine datengetriebene Infrastruktur-Modellierung und Integration von historischen Zugfahrtdaten vor. Dabei werden Daten der Deutschen Bahn aus einem Fahrplanjahr verwendet. Das Ziel besteht darin, systembedingte Inkonsistenzen bei der Zusammenführung der Daten zu beseitigen und die Integrität der Daten für weitere Analysen und Optimierungsansätze sicherzustellen. Außerdem werden Fahrtverläufe vereinheitlicht, damit diese besser miteinander verglichen werden können. In diesem Zusammenhang werden die Daten in ein JSON-Format transformiert, wodurch ein Vergleich von Soll- und Ist-Zeiten an allen Messpunkten möglich ist. Die Ergebnisse dieser Arbeit zeigen, dass in einem Datensatz mit 27 Mio. Zugfahrten 7 % aller Fahrten zunächst nicht für eine pauschale Weiterverarbeitung geeignet waren, weil zum Beispiel fehlende oder inkonsistente Werte vorlagen. Etwa 70 % der betroffenen Fahrten konnten automatisiert vervollständigt und harmonisiert werden. Dadurch wurde ein integrierter und bereinigter Datensatz erstellt, der als Grundlage zur Fahrplanoptimierung oder zur Analyse von Zugverspätungen verwendet werden kann. The analysis of historical trip data offers railway operators the opportunity to identify relations between delays, to better understand their causes and to take appropriate action. The information obtained can be used, for example, to create more robust timetables and thus improve punctuality in rail transport. However, for the data to be evaluated, it must be in a consistent state (i. e. complete and correct). Since infrastructure data as well as planned and actual times of train movements are recorded in different systems, the data must first be standardized and merged. This paper presents a data-driven approach for infrastructure modelling and integration of historical train running data. Data from Deutsche Bahn from one timetable year is used. The aim is to eliminate system-related inconsistencies in the consolidation of the data and to ensure the integrity of the data for further analyses and optimization approaches. In addition, the train trips are standardized so that they can be better compared with each other. In this context, the data will be transformed into a JSON format, enabling a comparison of planned and actual event times at all measuring points. The results of this work show that in a data set with 27 million train journeys, 7% of all journeys were initially not suitable for further processing because, for example, missing or inconsistent values were present. Approximately 70% of the affected trips could be completed and harmonized automatically. This resulted in the creation of an integrated and cleansed data set that can be used as a basis for timetable optimization or for the analysis of train delays.
- ZeitschriftenartikelBig Data im Innovationsmanagement: Wie Machine Learning die Suche nach Trends und Technologien revolutioniert(HMD Praxis der Wirtschaftsinformatik: Vol. 56, No. 5, 2019) Kölbl, Laura; Mühlroth, Christian; Wiser, Fabian; Grottke, Michael; Durst, CarolinInnovationsmanagement ist für Unternehmen in der heutigen Zeit ein wichtiges Instrument, um in sich schnell wandelnden Märkten konkurrenzfähig und erfolgreich zu bleiben. Dafür stehen in der heutigen Zeit große Mengen an Daten zur Verfügung, aus denen die relevanten Informationen jedoch zunächst herausgefiltert werden müssen. Dieser Beitrag präsentiert die Ergebnisse einer Studie zu den Herausforderungen an ein erfolgreiches Innovationsmanagement in Unternehmen und stellt ein Umfeldscanningsystem vor, das die Effizienz von Innovationsmanagement mithilfe von Big Data Analytics steigert. Durch die Anwendung von modernen Verfahren des maschinellen Lernens und mathematischen Algorithmen kann dieses in hohem Maße automatisiert werden. In der anschließenden Fallstudie wird anhand von zwei Datensätzen gezeigt, wie mithilfe des Umfeldscanningsystems aktuelle Trends gefunden werden können. Zum Schluss wird das datenbasierte Umfeldscanningsystem als Chance für kleine und mittlere Unternehmen und als Lösung für die im Vorfeld erkannten Herausforderungen diskutiert. Fast changes in global and local markets make innovation management an important factor for companies to stay competitive. Nowadays, a large amount of data is available which holds all the information we need—but the information that is crucial first needs to be identified by filtering these vast amounts of data. The authors show the results of a study on challenges that companies face with Innovation Management and present a concept on how big data analytics can be used to improve the efficiency of Innovation Management. State-of-the-art machine learning and other mathematical algorithms can automate and optimize the procedure tremendously. In a case study, the usage of an environmental scanning system for the detection of trends is demonstrated in a practical example on two data sets. Finally, it is discussed how a data-based approach to innovation management can help small and medium-sized companies to keep in touch with the times.
- ZeitschriftenartikelBusiness Analytics – Grundlagen, Methoden und Einsatzpotenziale(HMD Praxis der Wirtschaftsinformatik: Vol. 53, No. 3, 2016) Gluchowski, PeterNachdem sich die Business-Intelligence-Community über lange Jahre verstärkt dem Aufbau tragfähiger technologischer und organisatorischer Konzepte des Datenmanagements gewidmet hat, richtet sich der Blick in letzter Zeit zunehmend auf die Methoden und Einsatzbereiche einer fortgeschrittenen Datenanalyse. Unter der Begrifflichkeit Business Analytics werden derzeit Verfahren und Technologien diskutiert, die interessante Muster in umfangreichen Datenbeständen aufdecken und Prognosen über zukünftige Ereignisse und Gegebenheiten anstellen können. Vor diesem Hintergrund grenzt der Beitrag Business Analytics gegenüber anderen gebräuchlichen Wortgebilden wie Business Intelligence oder Big Data Analytics ab und nimmt dadurch eine thematische Einordnung vor. Den Kern von Business Analytics bilden die verwendeten analytischen Verfahren sowie die zugehörigen Algorithmen. Um hierfür ein Grundverständnis zu wecken, soll ein Überblick über die gebräuchlichen Methoden im Bereich Business Analytics gegeben und deren Funktionsweise kurz erläutert werden. Da Business Analytics dazu eingesetzt wird, um geschäftlichen Mehrwert zu generieren, sind auch die Einsatzpotenziale zu beleuchten.AbstractAfter the Business-Intelligence-community attended to set up stable technological and organizational concepts of Data Management for many years, its view recently focused mostly on methods and application areas of advanced Data-Analysis. Currently methods and technologies are discussed under the designation Business Analytics which can reveal interesting patterns in extensive mounds of data and predict upcoming events and conditions. Against that background the article establishes a differentiation between Business Analytics and other common concepts such as Business Intelligence and Big Data Analytics and therefore carries out a classification of the term. The core of Business Analytics is formed by the applied analytical methods and the corresponding algorithms. To assemble a basic understanding for this the article gives an overview of the usual methods in the field of Business Analytics and briefly illustrates their functionality. Since Business Analytics is used to generate additional commercial values, also potential fields of utilization are highlighted.
- TextdokumentDie Data Science Challenge auf der BTW 2019 in Rostock(BTW 2019 – Workshopband, 2019) Grunert, Hannes; Meyer, HolgerZum zweiten Mal — nach der BTW 2017 in Stuttgart [Wa17] — findet auf der BTW-Konferenzreihe die Data Science Challenge statt. Die Teilnehmer der Challenge hatten die Möglichkeit, ihren eigenen Ansatz zur cloud-basierten Datenanalyse zu entwickeln und damit im direkten Vergleich gegen andere Teilnehmer anzutreten.
- TextdokumentDeep Learning zur Vorhersage von Feinstaubbelastung(BTW 2019 – Workshopband, 2019) Alkhouri, Georges; Wilke, MoritzFeinstaubbelastung steht seit einiger Zeit in der öffentlichen Debatte und stellt mir hoher Wahrscheinlichkeit ein großes Gesundheitsrisiko dar. Laut WHO [Or06] kann die Redu-zierung von Feinstaub zur Senkung verschiedener Krankheiten, wie bspw. Herzinfarkten, Lungenkrebs und asmathischen Erkankungen dienen. Deswegen werden von der Organisa-tion Tagesgrenzwerte von 25 μg/m 3 für Partikel um 2,5 μm (PM2,5) und 50 μg/m 3 für Partikel um 10 μm (PM10) empfohlen. In diesem Beitrag zur Data Science Challenge soll gezeigt werden, wie die vorhandenen Feinstaubsensoren in der Stadt Leipzig genutzt werden können, um zukünftige Werte vorherzusagen.3 Eine solche Vorhersage könnte nicht nur zur Warnung dienen, sondern auch Grundlage für kurzfristige Gegenmaßnahmen (bspw. den Wechsel auf ÖPNV) bilden.
- TextdokumentExplanation of Air Pollution Using External Data Sources(BTW 2019 – Workshopband, 2019) Esmailoghli, Mahdi; Redyuk, Sergey; Martinez, Ricardo; Abedjan, Ziawasch; Rabl, Tilmann; Markl, Volker
- ZeitschriftenartikelKleine Barrieren für große Analysen – Eine Untersuchung der Eignung aktueller Plattformen für Self-Service Data Mining(HMD Praxis der Wirtschaftsinformatik: Vol. 56, No. 5, 2019) Badura, Daniel; Schulz, MichaelUm das Potential der stetig wachsenden Datenmengen in verschiedenen Geschäfts- und Gesellschaftsbereichen verstärkt zur Erkenntnisgewinnung und Entscheidungsunterstützung nutzen zu können, wäre es hilfreich, Big-Data-Analysemethoden für einen größeren Anwenderkreis zugänglich zu machen. Dies kann entweder durch eine stärkere Vermittlung von Datenkompetenzen aus Anwendersicht oder durch eine Vereinfachung der Methoden, insbesondere durch weitere Automatisierung der Prozesse oder Algorithmen mit geringer Komplexität aus Anwendungssicht geschehen. Zu letzteren gehören unter anderem Entscheidungsbäume, da die verwendeten Algorithmen leicht nachvollziehbar und die Analyseergebnisse zudem grafisch darstellbar sind. Für die in dieser Arbeit vorgestellte Versuchsreihe wurden sie daher als Anhaltspunkt für die Etablierbarkeit von Self-Service Data Mining verwendet. In den Plattformen IBM SPSS Modeler, RapidMiner, KNIME und Weka wurden auf einer einheitlichen Datengrundlage Klassifikationsmodelle erstellt und diese in Bezug auf ihre Genauigkeit und Komplexität miteinander verglichen. Die Ergebnisse deuten darauf hin, dass die Plattformen im Hinblick auf diese beiden Punkte unterschiedliche Stärken und Schwächen im Analyseprozess aufweisen. Gegenwärtig gibt es bereits vielversprechende Ansätze zur Erweiterung des potentiellen Nutzerkreises von Big-Data-Analysen, jedoch sind diese noch nicht flächendeckend etabliert. To further harness the potential of the growing volume of available data in different areas of business and society, it would be helpful if big data analytics could be made available to a larger group of users. This can be achieved either through an increase in general data literacy or a simplification of the process, especially through further automation or more easily comprehensible algorithms. Decision trees are an example of the latter, since analytical results can be represented in visual form. For the trials presented in this article, they were used as a reference point for the feasibility of self-service analytics. Classification models were constructed in the platforms IBM SPSS Modeler, RapidMiner, KNIME and Weka and were compared with regards to their accuracy and comprehensibility. The results indicate that the platforms possess different strengths and weaknesses at different steps of the process. Currently, there are already some promising self-service solutions, but they are not yet widely established.
- ZeitschriftenartikelParticulate Matter Matters—The Data Science Challenge @ BTW 2019(Datenbank-Spektrum: Vol. 19, No. 3, 2019) Meyer, Holger J.; Grunert, Hannes; Waizenegger, Tim; Woltmann, Lucas; Hartmann, Claudio; Lehner, Wolfgang; Esmailoghli, Mahdi; Redyuk, Sergey; Martinez, Ricardo; Abedjan, Ziawasch; Ziehn, Ariane; Rabl, Tilmann; Markl, Volker; Schmitz, Christian; Serai, Dhiren Devinder; Gava, Tatiane EscobarFor the second time, the Data Science Challenge took place as part of the 18th symposium “Database Systems for Business, Technology and Web” (BTW) of the Gesellschaft für Informatik (GI). The Challenge was organized by the University of Rostock and sponsored by IBM and SAP. This year, the integration, analysis and visualization around the topic of particulate matter pollution was the focus of the challenge. After a preselection round, the accepted participants had one month to adapt their developed approach to a substantiated problem, the real challenge. The final presentation took place at BTW 2019 in front of the prize jury and the attending audience. In this article, we give a brief overview of the schedule and the organization of the Data Science Challenge. In addition, the problem to be solved and its solution will be presented by the participants.