Auflistung HMD 56(5) - Oktober 2019 - Big Data Analytics nach Erscheinungsdatum
1 - 10 von 17
Treffer pro Seite
Sortieroptionen
- ZeitschriftenartikelRezension „Business Analytics“(HMD Praxis der Wirtschaftsinformatik: Vol. 56, No. 5, 2019) Knoll, Matthias
- ZeitschriftenartikelHybrider Ansatz zur automatisierten Themen-Klassifizierung von Produktrezensionen(HMD Praxis der Wirtschaftsinformatik: Vol. 56, No. 5, 2019) Goetz, Rene; Piazza, Alexander; Bodendorf, FreimutIm Online-Handel werden durch Interaktionen von Kunden mit den Web-Plattformen enorme Datenmengen generiert. So zählt Kundenfeedback in Form von Produktrezensionen zu den unstrukturierten Daten, für deren Verarbeitung Ansätze aus dem Gebiet der Computerlinguistik und des maschinellen Lernens benötigt werden. Als Alternative zu den klassischen Ansätzen des überwachten und unüberwachten Lernens, welche im betrieblichen Kontext und der Anwendungsdomäne der Produktrezensionen oftmals an deren Grenzen stoßen, wird in diesem Artikel ein hybrider Ansatz zur Kategorisierung von Produktrezensionen vorgestellt, der die Vorteile des maschinellen Lernens und der menschlichen Expertise vereint. Ziel dieses Artikels ist es, einen Ansatz zu präsentieren, welcher es ermöglicht, automatisiert und basierend auf den Anforderungen aus der Praxis, strukturiert Themen und darauf bezogene Aspekte aus Produktrezensionen zu extrahieren. Mithilfe von Word2Vec werden semantische Beziehung der in den Rezensionen enthaltenen Wörter trainiert. Dadurch können einzelne Wörter mit vorher definierten Themen auf deren Ähnlichkeit untersucht werden und in den Rezensionen identifiziert und extrahiert werden. Dieser Ansatz wird am Beispiel eines Datensatzes von rund fünf Millionen Produktrezensionen der Online-Plattform Amazon demonstriert und dessen Ergebnisse mit denen eines gängigen Topic Modelling Ansatzes gegenübergestellt. In e‑commerce, enormous amounts of data are generated through the interaction of customers with Web platforms. Customer feedback in the form of product reviews, for instance, is an example for unstructured data, which processing requires approaches from the fields of computer linguistics and machine learning. As an alternative to the classical approaches of supervised and unsupervised learning, which often reach their limits in the business context and the application domain of product reviews, this article presents a hybrid approach for categorizing product reviews that combines the advantages of machine learning and human expertise. The aim of this paper is to present an approach that allows to automatically extract structured topics and related aspects from product reviews based on practical requirements. Word2Vec is used to train semantic relationships between words that occur in product reviews. In this way, individual words of each review can be compared with in advance defined topic words regarding their similarity and can then be extracted from the reviews. This approach is demonstrated using around five million product reviews of the Amazon online platform. The results are getting compared with those from a common topic modelling technique.
- ZeitschriftenartikelKleine Barrieren für große Analysen – Eine Untersuchung der Eignung aktueller Plattformen für Self-Service Data Mining(HMD Praxis der Wirtschaftsinformatik: Vol. 56, No. 5, 2019) Badura, Daniel; Schulz, MichaelUm das Potential der stetig wachsenden Datenmengen in verschiedenen Geschäfts- und Gesellschaftsbereichen verstärkt zur Erkenntnisgewinnung und Entscheidungsunterstützung nutzen zu können, wäre es hilfreich, Big-Data-Analysemethoden für einen größeren Anwenderkreis zugänglich zu machen. Dies kann entweder durch eine stärkere Vermittlung von Datenkompetenzen aus Anwendersicht oder durch eine Vereinfachung der Methoden, insbesondere durch weitere Automatisierung der Prozesse oder Algorithmen mit geringer Komplexität aus Anwendungssicht geschehen. Zu letzteren gehören unter anderem Entscheidungsbäume, da die verwendeten Algorithmen leicht nachvollziehbar und die Analyseergebnisse zudem grafisch darstellbar sind. Für die in dieser Arbeit vorgestellte Versuchsreihe wurden sie daher als Anhaltspunkt für die Etablierbarkeit von Self-Service Data Mining verwendet. In den Plattformen IBM SPSS Modeler, RapidMiner, KNIME und Weka wurden auf einer einheitlichen Datengrundlage Klassifikationsmodelle erstellt und diese in Bezug auf ihre Genauigkeit und Komplexität miteinander verglichen. Die Ergebnisse deuten darauf hin, dass die Plattformen im Hinblick auf diese beiden Punkte unterschiedliche Stärken und Schwächen im Analyseprozess aufweisen. Gegenwärtig gibt es bereits vielversprechende Ansätze zur Erweiterung des potentiellen Nutzerkreises von Big-Data-Analysen, jedoch sind diese noch nicht flächendeckend etabliert. To further harness the potential of the growing volume of available data in different areas of business and society, it would be helpful if big data analytics could be made available to a larger group of users. This can be achieved either through an increase in general data literacy or a simplification of the process, especially through further automation or more easily comprehensible algorithms. Decision trees are an example of the latter, since analytical results can be represented in visual form. For the trials presented in this article, they were used as a reference point for the feasibility of self-service analytics. Classification models were constructed in the platforms IBM SPSS Modeler, RapidMiner, KNIME and Weka and were compared with regards to their accuracy and comprehensibility. The results indicate that the platforms possess different strengths and weaknesses at different steps of the process. Currently, there are already some promising self-service solutions, but they are not yet widely established.
- ZeitschriftenartikelBig Data Analytics im Bahnverkehr(HMD Praxis der Wirtschaftsinformatik: Vol. 56, No. 5, 2019) Hauck, Florian; Morgenstern, Sandro; Kliewer, NataliaDie Analyse von historischen Fahrtdaten bietet Bahnbetreibern die Möglichkeit Zusammenhänge zwischen Verspätungen zu erkennen, deren Ursachen besser zu verstehen und geeignete Maßnahmen zu treffen. Die gewonnenen Informationen können zum Beispiel verwendet werden, um robustere Fahrpläne zu erstellen und dadurch die Pünktlichkeit im Schienenverkehr zu verbessern. Damit die Daten ausgewertet werden können, müssen sie allerdings in einem konsistenten Zustand (das heißt vollständig und korrekt) vorliegen. Da Infrastrukturdaten sowie Soll- und Ist-Zeiten von Zugfahrten jeweils in verschiedenen Systemen erfasst werden, müssen die Daten zunächst vereinheitlicht und zusammengeführt werden. Dieser Beitrag stellt eine datengetriebene Infrastruktur-Modellierung und Integration von historischen Zugfahrtdaten vor. Dabei werden Daten der Deutschen Bahn aus einem Fahrplanjahr verwendet. Das Ziel besteht darin, systembedingte Inkonsistenzen bei der Zusammenführung der Daten zu beseitigen und die Integrität der Daten für weitere Analysen und Optimierungsansätze sicherzustellen. Außerdem werden Fahrtverläufe vereinheitlicht, damit diese besser miteinander verglichen werden können. In diesem Zusammenhang werden die Daten in ein JSON-Format transformiert, wodurch ein Vergleich von Soll- und Ist-Zeiten an allen Messpunkten möglich ist. Die Ergebnisse dieser Arbeit zeigen, dass in einem Datensatz mit 27 Mio. Zugfahrten 7 % aller Fahrten zunächst nicht für eine pauschale Weiterverarbeitung geeignet waren, weil zum Beispiel fehlende oder inkonsistente Werte vorlagen. Etwa 70 % der betroffenen Fahrten konnten automatisiert vervollständigt und harmonisiert werden. Dadurch wurde ein integrierter und bereinigter Datensatz erstellt, der als Grundlage zur Fahrplanoptimierung oder zur Analyse von Zugverspätungen verwendet werden kann. The analysis of historical trip data offers railway operators the opportunity to identify relations between delays, to better understand their causes and to take appropriate action. The information obtained can be used, for example, to create more robust timetables and thus improve punctuality in rail transport. However, for the data to be evaluated, it must be in a consistent state (i. e. complete and correct). Since infrastructure data as well as planned and actual times of train movements are recorded in different systems, the data must first be standardized and merged. This paper presents a data-driven approach for infrastructure modelling and integration of historical train running data. Data from Deutsche Bahn from one timetable year is used. The aim is to eliminate system-related inconsistencies in the consolidation of the data and to ensure the integrity of the data for further analyses and optimization approaches. In addition, the train trips are standardized so that they can be better compared with each other. In this context, the data will be transformed into a JSON format, enabling a comparison of planned and actual event times at all measuring points. The results of this work show that in a data set with 27 million train journeys, 7% of all journeys were initially not suitable for further processing because, for example, missing or inconsistent values were present. Approximately 70% of the affected trips could be completed and harmonized automatically. This resulted in the creation of an integrated and cleansed data set that can be used as a basis for timetable optimization or for the analysis of train delays.
- ZeitschriftenartikelDatengetriebene Entscheidungsfindung aus strategischer und operativer Perspektive im Handel(HMD Praxis der Wirtschaftsinformatik: Vol. 56, No. 5, 2019) Kari, Mohamed; Weber, Felix; Schütte, ReinhardMit der digitalisierungsbedingten Zunahme kontinuierlich erfasster Massendaten aus unterschiedlichsten Quellen entsteht die Hoffnung, einen besseren Zugang als je zuvor zur Realität zu erhalten. Angesichts des Big-Data-Phänomens stellt sich dabei für Handelsunternehmen die Frage, welche unternehmensweite Datenstrategie es zu verfolgen gilt. Dazu liefert der folgende Beitrag anhand eines Frameworks eine sachlogische Struktur für eine unternehmensweite Datenstrategie. Für jedes aufgezeigte Strategiefeld dieses Frameworks sind dabei Basisentscheidungen zu treffen, die die nötigen Voraussetzungen zur Nutzung von Daten für erfolgreiche Einzelprojekte als auch die erfolgreiche Eingliederung datengetriebener Aktivitäten in Standardprozesse schaffen. Neben der Datenstrategie wird auch der realisierbare betriebswirtschaftliche Beitrag für Einzelhändler anhand einer Fallstudie entfaltet. Dazu wird auf das Handelsmarketing und den Marketing-Mix als zentrales Konzept, und seit jeher eines der wichtigsten Tätigkeitsfelder im Einzelhandel, zur Aufstellung einer datengetriebenen Entscheidungsphänomenologie zurückgegriffen. Als Antwort auf die Frage, welche Datenstrategie angesichts von Big Data von einem Einzelhändler zu verfolgen ist, wurden verschiedene Teilbereiche identifiziert und Maßnahmen innerhalb dieser ausgearbeitet. Es wurde gezeigt, dass integrierte und kohärente Maßnahmen auf organisationaler und technologischer Ebene für die Sammlung, Speicherung, Verarbeitung, Verwendung, Steuerung und Transformation von Big Data im Unternehmen nötig sind. Mit Erfüllung der notwendigen Vorrausetzungen für Big Data im Rahmen der Datenstrategie ist es dabei möglich nicht nur die hier aufgezeigte Absatzseite der Unternehmung zu optimieren, sondern auch die tiefgreifende Integration der verschiedenen Prozessbereiche im Handelsunternehmen abzubilden. With the digitalization-induced increase in continuously recorded mass data from a wide variety of sources, there is hope of obtaining better access to reality than ever before. In view of the big data phenomenon, retail companies are faced with the question of which company-wide data strategy to pursue. The following article establishes a framework to provide a logical structure for a company-wide data strategy. For each strategy field of this framework, basic decisions have to be made. This are the necessary prerequisites for the use of data within successful separated projects as well as the successful integration of data-driven activities into standard processes. In addition to the data strategy, a case study will be used to unfold the feasible business contribution for retailers. For this purpose, retail marketing and the marketing mix will be used as the central concept, which has always been one of the most important fields of activity in retail, to establish a data-driven decision phenomenology. In response to the question as to which data strategy should be pursued by a retailer in view of Big Data, various sub-areas and measures within these were identified and elaborated. It is shown that integrated and coherent measures at the organizational and technological levels are necessary for the collection, storage, processing, use, control and transformation of Big Data in a company. By fulfilling the necessary prerequisites for Big Data within the framework of the data strategy, it is not only possible to optimize the sales side of the company, but also to enable a profound integration of the various process areas within a retail company.
- ZeitschriftenartikelRezension „Big Data und E‑Health“(HMD Praxis der Wirtschaftsinformatik: Vol. 56, No. 5, 2019) Waldhör, Klemens
- ZeitschriftenartikelRezension „Small Data“(HMD Praxis der Wirtschaftsinformatik: Vol. 56, No. 5, 2019) Portmann, Edy
- ZeitschriftenartikelEs ist immer Zeit, an die Zukunft zu denken(HMD Praxis der Wirtschaftsinformatik: Vol. 56, No. 5, 2019) Lauber, Martin
- ZeitschriftenartikelSearching-Tool für Compliance(HMD Praxis der Wirtschaftsinformatik: Vol. 56, No. 5, 2019) Hengartner, UrsText ist immer noch die vorherrschende Kommunikationsform der heutigen Geschäftswelt. Techniken des Textverstehens erschliessen vielfältiges Wissen zur Verbesserung der Kommunikation zwischen Menschen und Maschinen. In der letzten Zeit haben das automatische Textverstehen und die Extraktion von Semantik bedeutende Fortschritte gemacht. Der Vorteil der Nutzung eines Textanalysesystems für die Überprüfung der Regelkonformität in der Finanzbranche, ist angesichts des Wachstums der Online-Informationen wichtiger denn je. Es ist eine Herausforderung, aktuelle Informationen über Kunden, Unternehmen und Lieferanten zu verfolgen und zu interpretieren. Bei fehlerhaftem Verhalten sind die Auswirkungen auf ein Unternehmen unter Umständen drastisch. Zum Beispiel sind Kundeneröffnungen wegen verordneten Abklärungen für Finanzinstitute oft komplex und kostenintensiv. Um zum Beispiel Missbräuche (Geldwäsche) aufzudecken müssen grosse Mengen an textueller Daten interpretiert werden. Vorgestellt wird ein Anwendungsfall aus der Praxis mit dem Analysewerkzeug Person-Check und den dabei angewandten Textanalysen. Person-Check ermöglicht deutlich effizientere Abklärungen in Compliance-Prüfprozessen unter Berücksichtigung internationaler, lokaler und firmeninternen Richtlinien. Text is still the predominant form of communication in today’s business world. Techniques of text comprehension open up a wide range of knowledge for improving communication between people and machines. Recently, automatic text comprehension and the extraction of semantics have made significant progress. The advantage of using a text analysis system to verify compliance in the financial industry is more important than ever given the growths of online information. It is a challenge to track and interpret current information about customers, companies and suppliers. If an organization behaves incorrectly, the impact can be very drastic. For example, customer openings today are often complex and costly for financial institutions due to mandated clarifications. In order to detect abuses (money laundering), large amounts of textual data must be interpreted. A case study from practice with the textual analysis tool Person-Check and the applied text analytics, will be presented. Person-Check enables significantly more efficient clarifications in compliance audit processes, taking into account international, local and internal company guidelines.
- ZeitschriftenartikelBig Data im Innovationsmanagement: Wie Machine Learning die Suche nach Trends und Technologien revolutioniert(HMD Praxis der Wirtschaftsinformatik: Vol. 56, No. 5, 2019) Kölbl, Laura; Mühlroth, Christian; Wiser, Fabian; Grottke, Michael; Durst, CarolinInnovationsmanagement ist für Unternehmen in der heutigen Zeit ein wichtiges Instrument, um in sich schnell wandelnden Märkten konkurrenzfähig und erfolgreich zu bleiben. Dafür stehen in der heutigen Zeit große Mengen an Daten zur Verfügung, aus denen die relevanten Informationen jedoch zunächst herausgefiltert werden müssen. Dieser Beitrag präsentiert die Ergebnisse einer Studie zu den Herausforderungen an ein erfolgreiches Innovationsmanagement in Unternehmen und stellt ein Umfeldscanningsystem vor, das die Effizienz von Innovationsmanagement mithilfe von Big Data Analytics steigert. Durch die Anwendung von modernen Verfahren des maschinellen Lernens und mathematischen Algorithmen kann dieses in hohem Maße automatisiert werden. In der anschließenden Fallstudie wird anhand von zwei Datensätzen gezeigt, wie mithilfe des Umfeldscanningsystems aktuelle Trends gefunden werden können. Zum Schluss wird das datenbasierte Umfeldscanningsystem als Chance für kleine und mittlere Unternehmen und als Lösung für die im Vorfeld erkannten Herausforderungen diskutiert. Fast changes in global and local markets make innovation management an important factor for companies to stay competitive. Nowadays, a large amount of data is available which holds all the information we need—but the information that is crucial first needs to be identified by filtering these vast amounts of data. The authors show the results of a study on challenges that companies face with Innovation Management and present a concept on how big data analytics can be used to improve the efficiency of Innovation Management. State-of-the-art machine learning and other mathematical algorithms can automate and optimize the procedure tremendously. In a case study, the usage of an environmental scanning system for the detection of trends is demonstrated in a practical example on two data sets. Finally, it is discussed how a data-based approach to innovation management can help small and medium-sized companies to keep in touch with the times.