Auflistung HMD 56(5) - Oktober 2019 - Big Data Analytics nach Titel
1 - 10 von 17
Treffer pro Seite
Sortieroptionen
- ZeitschriftenartikelAutomatisierung von Geschäftsprozessen im Maschinen- und Anlagenbau – Fallstudie zu Predictive Maintenance(HMD Praxis der Wirtschaftsinformatik: Vol. 56, No. 5, 2019) Gluchowski, Peter; Schieder, Christian; Gmeiner, Andreas; Trenz, StefanDie Chancen, die sich durch die zielgerichtete Auswertung und Verwendung von Sensordaten für den Maschinen- und Anlagenbau ergeben, sind immens. Große Anlagen weisen hunderte oder gar tausende von verbauten Sensoren auf, die in kurzen Zeitabständen Daten über aktuelle Zustände einzelner Maschinenkomponenten sowie der Produktionsprozesse erzeugen. Die Produktion von Wellpappe, die als vielseitiges Verpackungsmaterial für Endkunden- und Industrieprodukte weltweit zum Einsatz kommt, stellt hierbei ein besonders anschauliches Beispiel dar. Die Entwicklung digitaler Dienstleistungen wie die vorausschauende Wartung (sog. „Predictive Maintenance“) basieren auf Daten, die an der Anlage erzeugt werden. Ein im Produktionsprozess von Wellpappe kritisches Bauteil stellt das bei der Verklebung der Wellpapp-Schichten verwendete Anpressband dar. Die neueste Generation von Wellpappenanlagen wird zu diesem Zweck mit spezieller Sensorik ausgestattet, die laufend Daten zum Zustand des Bandes liefern. Mit diesen Daten lassen sich mit Hilfe modellbasierter maschineller Lernverfahren Prognosen zur Lebensdauer treffen und damit Automatisierungspotenziale bei nachfolgenden Geschäftsprozessen ausschöpfen. Ziel ist die Minimierung der Produktions- und Qualitätsverluste sowie die Automatisierung der Ersatzteilprozesse. Der Beitrag skizziert die Vorgehensweise und Ergebnisse des zugehörigen Projekts und gibt einen Ausblick auf zukünftige Entwicklungen. The systematic evaluation and use of sensor data create immense opportunities for mechanical engineering and machine operations. Production lines have hundreds or even thousands of built-in sensors that generate data on the current status of individual machine components and production processes at short intervals. The production of corrugated board, which is used worldwide as a versatile packaging material for end customer and industrial products, is a particularly vivid example of this. The development of digital services such as predictive maintenance is based on data generated at the production line. A critical component in the production process of corrugated board is the pressure belt used to bond the layers of corrugated board. For this purpose, the latest generation of corrugators is equipped with special sensors that continuously provide data on the condition of the belt. These data can be used to predict the service life with the aid of model-based machine learning methods and thus exploit automation potential in subsequent business processes. The aim is to minimize production and quality losses and automate spare parts processes. The paper outlines the approach and results of the associated project and gives an outlook on future developments.
- ZeitschriftenartikelBig Data Analytics(HMD Praxis der Wirtschaftsinformatik: Vol. 56, No. 5, 2019) Meier, Andreas
- ZeitschriftenartikelBig Data Analytics im Bahnverkehr(HMD Praxis der Wirtschaftsinformatik: Vol. 56, No. 5, 2019) Hauck, Florian; Morgenstern, Sandro; Kliewer, NataliaDie Analyse von historischen Fahrtdaten bietet Bahnbetreibern die Möglichkeit Zusammenhänge zwischen Verspätungen zu erkennen, deren Ursachen besser zu verstehen und geeignete Maßnahmen zu treffen. Die gewonnenen Informationen können zum Beispiel verwendet werden, um robustere Fahrpläne zu erstellen und dadurch die Pünktlichkeit im Schienenverkehr zu verbessern. Damit die Daten ausgewertet werden können, müssen sie allerdings in einem konsistenten Zustand (das heißt vollständig und korrekt) vorliegen. Da Infrastrukturdaten sowie Soll- und Ist-Zeiten von Zugfahrten jeweils in verschiedenen Systemen erfasst werden, müssen die Daten zunächst vereinheitlicht und zusammengeführt werden. Dieser Beitrag stellt eine datengetriebene Infrastruktur-Modellierung und Integration von historischen Zugfahrtdaten vor. Dabei werden Daten der Deutschen Bahn aus einem Fahrplanjahr verwendet. Das Ziel besteht darin, systembedingte Inkonsistenzen bei der Zusammenführung der Daten zu beseitigen und die Integrität der Daten für weitere Analysen und Optimierungsansätze sicherzustellen. Außerdem werden Fahrtverläufe vereinheitlicht, damit diese besser miteinander verglichen werden können. In diesem Zusammenhang werden die Daten in ein JSON-Format transformiert, wodurch ein Vergleich von Soll- und Ist-Zeiten an allen Messpunkten möglich ist. Die Ergebnisse dieser Arbeit zeigen, dass in einem Datensatz mit 27 Mio. Zugfahrten 7 % aller Fahrten zunächst nicht für eine pauschale Weiterverarbeitung geeignet waren, weil zum Beispiel fehlende oder inkonsistente Werte vorlagen. Etwa 70 % der betroffenen Fahrten konnten automatisiert vervollständigt und harmonisiert werden. Dadurch wurde ein integrierter und bereinigter Datensatz erstellt, der als Grundlage zur Fahrplanoptimierung oder zur Analyse von Zugverspätungen verwendet werden kann. The analysis of historical trip data offers railway operators the opportunity to identify relations between delays, to better understand their causes and to take appropriate action. The information obtained can be used, for example, to create more robust timetables and thus improve punctuality in rail transport. However, for the data to be evaluated, it must be in a consistent state (i. e. complete and correct). Since infrastructure data as well as planned and actual times of train movements are recorded in different systems, the data must first be standardized and merged. This paper presents a data-driven approach for infrastructure modelling and integration of historical train running data. Data from Deutsche Bahn from one timetable year is used. The aim is to eliminate system-related inconsistencies in the consolidation of the data and to ensure the integrity of the data for further analyses and optimization approaches. In addition, the train trips are standardized so that they can be better compared with each other. In this context, the data will be transformed into a JSON format, enabling a comparison of planned and actual event times at all measuring points. The results of this work show that in a data set with 27 million train journeys, 7% of all journeys were initially not suitable for further processing because, for example, missing or inconsistent values were present. Approximately 70% of the affected trips could be completed and harmonized automatically. This resulted in the creation of an integrated and cleansed data set that can be used as a basis for timetable optimization or for the analysis of train delays.
- ZeitschriftenartikelBig Data im Innovationsmanagement: Wie Machine Learning die Suche nach Trends und Technologien revolutioniert(HMD Praxis der Wirtschaftsinformatik: Vol. 56, No. 5, 2019) Kölbl, Laura; Mühlroth, Christian; Wiser, Fabian; Grottke, Michael; Durst, CarolinInnovationsmanagement ist für Unternehmen in der heutigen Zeit ein wichtiges Instrument, um in sich schnell wandelnden Märkten konkurrenzfähig und erfolgreich zu bleiben. Dafür stehen in der heutigen Zeit große Mengen an Daten zur Verfügung, aus denen die relevanten Informationen jedoch zunächst herausgefiltert werden müssen. Dieser Beitrag präsentiert die Ergebnisse einer Studie zu den Herausforderungen an ein erfolgreiches Innovationsmanagement in Unternehmen und stellt ein Umfeldscanningsystem vor, das die Effizienz von Innovationsmanagement mithilfe von Big Data Analytics steigert. Durch die Anwendung von modernen Verfahren des maschinellen Lernens und mathematischen Algorithmen kann dieses in hohem Maße automatisiert werden. In der anschließenden Fallstudie wird anhand von zwei Datensätzen gezeigt, wie mithilfe des Umfeldscanningsystems aktuelle Trends gefunden werden können. Zum Schluss wird das datenbasierte Umfeldscanningsystem als Chance für kleine und mittlere Unternehmen und als Lösung für die im Vorfeld erkannten Herausforderungen diskutiert. Fast changes in global and local markets make innovation management an important factor for companies to stay competitive. Nowadays, a large amount of data is available which holds all the information we need—but the information that is crucial first needs to be identified by filtering these vast amounts of data. The authors show the results of a study on challenges that companies face with Innovation Management and present a concept on how big data analytics can be used to improve the efficiency of Innovation Management. State-of-the-art machine learning and other mathematical algorithms can automate and optimize the procedure tremendously. In a case study, the usage of an environmental scanning system for the detection of trends is demonstrated in a practical example on two data sets. Finally, it is discussed how a data-based approach to innovation management can help small and medium-sized companies to keep in touch with the times.
- ZeitschriftenartikelBig Public Data aus dem Programmable Web: Chancen und Herausforderungen(HMD Praxis der Wirtschaftsinformatik: Vol. 56, No. 5, 2019) Matter, UlrichDie Verbreitung des Internets, die zunehmende Digitalisierung in der öffentlichen Verwaltung und Politik, sowie die Entfaltung der Civic Technology Bewegung haben über die letzten Jahre zu einer starken Zunahme an hochdetaillierten digitalen Datenbeständen über politische Akteure und Prozesse geführt. Diese big public data werden oft über programmatische Schnittstellen (Web application programming interfaces; programmable Web) verbreitet, um die Einbettung der Daten in anderen Webanwendungen zu vereinfachen und somit ein möglichst großes Publikum zu erreichen. Die Analyse dieser Daten für wissenschaftliche Zwecke in der politischen Ökonomie und Politologie ist vielversprechend, setzt jedoch die Implementierung einer data pipeline zur systematischen Beschaffung und Aufbereitung von Daten aus dem programmable Web voraus. Dieser Artikel diskutiert die Chancen und Herausforderungen der praktischen Nutzung dieser Datenbestände für die empirische Forschung und zeigt anhand einer Fallstudie ein mögliches Vorgehen zur systematischen Analyse von big public data aus dem programmable Web auf. The diffusion of the Internet, the increasing digitization in public service and politics, as well as the evolvement of the civic technology movement have led to a sharp increase in highly granular digital data on political officials und political processes. These big public data are typically distributed in various data formats via so-called Web application programming interfaces in order to facilitate the embedding of these data in web applications with the aim of reaching a large audience. The analysis of these data for research in political economics and political science is very promising. Yet, conducting such analyses efficiently, presupposes the implementation of a data pipeline to systematically collect und combine data from programmable Web sources. This article discusses the opportunities and challenges for the practical exploitation of these new data sources for social-science research. A case study in the context of research on religion in US Politics illustrates an approach to systematically collect and analyse big public data based on the programmable Web.
- ZeitschriftenartikelDatengetriebene Entscheidungsfindung aus strategischer und operativer Perspektive im Handel(HMD Praxis der Wirtschaftsinformatik: Vol. 56, No. 5, 2019) Kari, Mohamed; Weber, Felix; Schütte, ReinhardMit der digitalisierungsbedingten Zunahme kontinuierlich erfasster Massendaten aus unterschiedlichsten Quellen entsteht die Hoffnung, einen besseren Zugang als je zuvor zur Realität zu erhalten. Angesichts des Big-Data-Phänomens stellt sich dabei für Handelsunternehmen die Frage, welche unternehmensweite Datenstrategie es zu verfolgen gilt. Dazu liefert der folgende Beitrag anhand eines Frameworks eine sachlogische Struktur für eine unternehmensweite Datenstrategie. Für jedes aufgezeigte Strategiefeld dieses Frameworks sind dabei Basisentscheidungen zu treffen, die die nötigen Voraussetzungen zur Nutzung von Daten für erfolgreiche Einzelprojekte als auch die erfolgreiche Eingliederung datengetriebener Aktivitäten in Standardprozesse schaffen. Neben der Datenstrategie wird auch der realisierbare betriebswirtschaftliche Beitrag für Einzelhändler anhand einer Fallstudie entfaltet. Dazu wird auf das Handelsmarketing und den Marketing-Mix als zentrales Konzept, und seit jeher eines der wichtigsten Tätigkeitsfelder im Einzelhandel, zur Aufstellung einer datengetriebenen Entscheidungsphänomenologie zurückgegriffen. Als Antwort auf die Frage, welche Datenstrategie angesichts von Big Data von einem Einzelhändler zu verfolgen ist, wurden verschiedene Teilbereiche identifiziert und Maßnahmen innerhalb dieser ausgearbeitet. Es wurde gezeigt, dass integrierte und kohärente Maßnahmen auf organisationaler und technologischer Ebene für die Sammlung, Speicherung, Verarbeitung, Verwendung, Steuerung und Transformation von Big Data im Unternehmen nötig sind. Mit Erfüllung der notwendigen Vorrausetzungen für Big Data im Rahmen der Datenstrategie ist es dabei möglich nicht nur die hier aufgezeigte Absatzseite der Unternehmung zu optimieren, sondern auch die tiefgreifende Integration der verschiedenen Prozessbereiche im Handelsunternehmen abzubilden. With the digitalization-induced increase in continuously recorded mass data from a wide variety of sources, there is hope of obtaining better access to reality than ever before. In view of the big data phenomenon, retail companies are faced with the question of which company-wide data strategy to pursue. The following article establishes a framework to provide a logical structure for a company-wide data strategy. For each strategy field of this framework, basic decisions have to be made. This are the necessary prerequisites for the use of data within successful separated projects as well as the successful integration of data-driven activities into standard processes. In addition to the data strategy, a case study will be used to unfold the feasible business contribution for retailers. For this purpose, retail marketing and the marketing mix will be used as the central concept, which has always been one of the most important fields of activity in retail, to establish a data-driven decision phenomenology. In response to the question as to which data strategy should be pursued by a retailer in view of Big Data, various sub-areas and measures within these were identified and elaborated. It is shown that integrated and coherent measures at the organizational and technological levels are necessary for the collection, storage, processing, use, control and transformation of Big Data in a company. By fulfilling the necessary prerequisites for Big Data within the framework of the data strategy, it is not only possible to optimize the sales side of the company, but also to enable a profound integration of the various process areas within a retail company.
- ZeitschriftenartikelEs ist immer Zeit, an die Zukunft zu denken(HMD Praxis der Wirtschaftsinformatik: Vol. 56, No. 5, 2019) Lauber, Martin
- ZeitschriftenartikelHybrider Ansatz zur automatisierten Themen-Klassifizierung von Produktrezensionen(HMD Praxis der Wirtschaftsinformatik: Vol. 56, No. 5, 2019) Goetz, Rene; Piazza, Alexander; Bodendorf, FreimutIm Online-Handel werden durch Interaktionen von Kunden mit den Web-Plattformen enorme Datenmengen generiert. So zählt Kundenfeedback in Form von Produktrezensionen zu den unstrukturierten Daten, für deren Verarbeitung Ansätze aus dem Gebiet der Computerlinguistik und des maschinellen Lernens benötigt werden. Als Alternative zu den klassischen Ansätzen des überwachten und unüberwachten Lernens, welche im betrieblichen Kontext und der Anwendungsdomäne der Produktrezensionen oftmals an deren Grenzen stoßen, wird in diesem Artikel ein hybrider Ansatz zur Kategorisierung von Produktrezensionen vorgestellt, der die Vorteile des maschinellen Lernens und der menschlichen Expertise vereint. Ziel dieses Artikels ist es, einen Ansatz zu präsentieren, welcher es ermöglicht, automatisiert und basierend auf den Anforderungen aus der Praxis, strukturiert Themen und darauf bezogene Aspekte aus Produktrezensionen zu extrahieren. Mithilfe von Word2Vec werden semantische Beziehung der in den Rezensionen enthaltenen Wörter trainiert. Dadurch können einzelne Wörter mit vorher definierten Themen auf deren Ähnlichkeit untersucht werden und in den Rezensionen identifiziert und extrahiert werden. Dieser Ansatz wird am Beispiel eines Datensatzes von rund fünf Millionen Produktrezensionen der Online-Plattform Amazon demonstriert und dessen Ergebnisse mit denen eines gängigen Topic Modelling Ansatzes gegenübergestellt. In e‑commerce, enormous amounts of data are generated through the interaction of customers with Web platforms. Customer feedback in the form of product reviews, for instance, is an example for unstructured data, which processing requires approaches from the fields of computer linguistics and machine learning. As an alternative to the classical approaches of supervised and unsupervised learning, which often reach their limits in the business context and the application domain of product reviews, this article presents a hybrid approach for categorizing product reviews that combines the advantages of machine learning and human expertise. The aim of this paper is to present an approach that allows to automatically extract structured topics and related aspects from product reviews based on practical requirements. Word2Vec is used to train semantic relationships between words that occur in product reviews. In this way, individual words of each review can be compared with in advance defined topic words regarding their similarity and can then be extracted from the reviews. This approach is demonstrated using around five million product reviews of the Amazon online platform. The results are getting compared with those from a common topic modelling technique.
- ZeitschriftenartikelKleine Barrieren für große Analysen – Eine Untersuchung der Eignung aktueller Plattformen für Self-Service Data Mining(HMD Praxis der Wirtschaftsinformatik: Vol. 56, No. 5, 2019) Badura, Daniel; Schulz, MichaelUm das Potential der stetig wachsenden Datenmengen in verschiedenen Geschäfts- und Gesellschaftsbereichen verstärkt zur Erkenntnisgewinnung und Entscheidungsunterstützung nutzen zu können, wäre es hilfreich, Big-Data-Analysemethoden für einen größeren Anwenderkreis zugänglich zu machen. Dies kann entweder durch eine stärkere Vermittlung von Datenkompetenzen aus Anwendersicht oder durch eine Vereinfachung der Methoden, insbesondere durch weitere Automatisierung der Prozesse oder Algorithmen mit geringer Komplexität aus Anwendungssicht geschehen. Zu letzteren gehören unter anderem Entscheidungsbäume, da die verwendeten Algorithmen leicht nachvollziehbar und die Analyseergebnisse zudem grafisch darstellbar sind. Für die in dieser Arbeit vorgestellte Versuchsreihe wurden sie daher als Anhaltspunkt für die Etablierbarkeit von Self-Service Data Mining verwendet. In den Plattformen IBM SPSS Modeler, RapidMiner, KNIME und Weka wurden auf einer einheitlichen Datengrundlage Klassifikationsmodelle erstellt und diese in Bezug auf ihre Genauigkeit und Komplexität miteinander verglichen. Die Ergebnisse deuten darauf hin, dass die Plattformen im Hinblick auf diese beiden Punkte unterschiedliche Stärken und Schwächen im Analyseprozess aufweisen. Gegenwärtig gibt es bereits vielversprechende Ansätze zur Erweiterung des potentiellen Nutzerkreises von Big-Data-Analysen, jedoch sind diese noch nicht flächendeckend etabliert. To further harness the potential of the growing volume of available data in different areas of business and society, it would be helpful if big data analytics could be made available to a larger group of users. This can be achieved either through an increase in general data literacy or a simplification of the process, especially through further automation or more easily comprehensible algorithms. Decision trees are an example of the latter, since analytical results can be represented in visual form. For the trials presented in this article, they were used as a reference point for the feasibility of self-service analytics. Classification models were constructed in the platforms IBM SPSS Modeler, RapidMiner, KNIME and Weka and were compared with regards to their accuracy and comprehensibility. The results indicate that the platforms possess different strengths and weaknesses at different steps of the process. Currently, there are already some promising self-service solutions, but they are not yet widely established.
- ZeitschriftenartikelObjekterkennung im Weinanbau – Eine Fallstudie zur Unterstützung von Winzertätigkeiten mithilfe von Deep Learning(HMD Praxis der Wirtschaftsinformatik: Vol. 56, No. 5, 2019) Heinrich, Kai; Zschech, Patrick; Möller, Björn; Breithaupt, Lukas; Maresch, JohannesDie voranschreitende Digitalisierung revolutioniert sämtliche Wirtschaftszweige und bringt somit auch langfristige Veränderungen für den landwirtschaftlichen Sektor mit sich, wo auf Basis intelligenter Informationssysteme zahlreiche Daten gesammelt und im Zuge neuer Geschäftsmodelle ausgewertet werden. Vor diesem Hintergrund präsentiert der vorliegende Beitrag eine Big-Data-Analytics-Fallstudie aus dem Bereich des Weinanbaus, wo mithilfe von mobilen Aufnahmegeräten umfangreiches Bildmaterial aufgezeichnet wurde, um eine automatisierte Objekterkennung zur Unterstützung von operativen Winzertätigkeiten, wie zum Beispiel das Zählen von Reben, die Identifikation von Rebfehlstellen oder die Prognose von potentiellem Erntegut, realisieren zu können. Hierbei bestand die Herausforderung unter anderem darin, landwirtschaftlich relevante Weinobjekte wie Reben, Trauben und Beeren über die einzelnen Hierarchieebenen hinweg erkennen zu können und diese auch in Bezug auf bewegtes Bildmaterial folgerichtig zu zählen. Zur Bewältigung derartiger Herausforderungen werden einige Lösungsansätze vorgestellt, die auf modernen Deep-Learning-Verfahren der bildbasierten Objekterkennung basieren. Der Beitrag wird abgerundet mit einer Diskussion und Implikationen für analytische Anwendungen in der landwirtschaftlichen Praxis. The transformation towards a digitized world introduces major changes to all economic sectors, among them the sector of agriculture, where intelligent information systems help to gather and analyze vast amounts of data to provide new business functions and models. Given this background, this article describes a big data analytics case study from the field of viticulture, where extensive image material was recorded using mobile recording devices in order to implement automated object detection to support operational vineyard activities, such as counting vines, identifying missing plants or predicting potential harvests. One of the challenges here was to correctly identify relevant wine objects such as vines, grapes and berries across their different hierarchical levels and to consistently count them in relation to moving image material. The authors provide a solution to those challenges by designing a data analysis process based on a deep learning framework for object detection. Additionally, the results as well as implications for the application of the proposed models in the field of agrarian management are discussed at the end of the article.