Auflistung nach Schlagwort "Datenanalyse"
1 - 10 von 14
Treffer pro Seite
Sortieroptionen
- ZeitschriftenartikelAnalyse von Studienverläufen mit Process-Mining-Techniken(HMD Praxis der Wirtschaftsinformatik: Vol. 55, No. 4, 2018) Buck-Emden, Rüdiger; Dahmann, Franz-DominikStudenten an Hochschulen und Universitäten haben bei der Gestaltung ihrer Studienverläufe meistens viele Freiheitsgrade. Begrenzt werden diese Freiheiten durch das Curriculum, das bestimmte Rahmenbedingungen für den Studienverlauf einer Fachrichtung festlegt und Empfehlungen bzw. Vorgaben macht, welche Veranstaltungen in welchem Semester besucht werden sollen. In der Praxis weichen viele Studenten von den Empfehlungen des Curriculums ab. Dies führt zu einer Vielzahl individueller Studienverläufe, von denen jeder einzelne mehr oder weniger erfolgreich sein kann (z. B. in Hinblick auf das Erreichen des angestrebten Abschlusses, auf die erzielte Abschlussnote oder auf die benötigte Studiendauer). Für eine an erfolgreichen Studienverläufen orientierte Weiterentwicklung von Curricula und zugehörigen Studienberatungen fehlen den Verantwortlichen an Hochschulen und Universitäten nicht selten detaillierte Erkenntnisse über das konkrete Studienverhalten und über erfolgreiche bzw. weniger erfolgreiche Studienverlaufsmuster. Durch Process-Mining-Techniken wie Bubble-Chart-Analysen, Fuzzy Mining und Inductive Visual Mining können die Verantwortlichen Transparenz bei der Auswertung von Studienverläufen gewinnen und darauf aufbauend gezielte Maßnahmen einleiten. Students at universities usually enjoy a high level of freedom to shape their course of studies. Only the curriculum is the limit, which defines rules and suggests courses to be taken in certain semesters. In practice, many students deviate from these suggestions, leading to a plethora of individual schedules which may be more or less successful (with regards e. g. to achieved degree, final rates, and time to graduation). University officials in charge of evolving and enhancing curricula as well as student advisory services often do not have detailed knowledge regarding student’s specific behavior as well as successful and less successful study schedules. Here process mining techniques like bubble chart analytics, fuzzy mining, and inductive visual mining can fill the gap and provide transparency as foundation for dedicated measures.
- ZeitschriftenartikelAssoziationsregeln – Analyse eines Data Mining Verfahrens(Informatik-Spektrum: Vol. 19, No. 5, 1996) Bollinger, Toni
- ZeitschriftenartikelBig Data Analytics im Bahnverkehr(HMD Praxis der Wirtschaftsinformatik: Vol. 56, No. 5, 2019) Hauck, Florian; Morgenstern, Sandro; Kliewer, NataliaDie Analyse von historischen Fahrtdaten bietet Bahnbetreibern die Möglichkeit Zusammenhänge zwischen Verspätungen zu erkennen, deren Ursachen besser zu verstehen und geeignete Maßnahmen zu treffen. Die gewonnenen Informationen können zum Beispiel verwendet werden, um robustere Fahrpläne zu erstellen und dadurch die Pünktlichkeit im Schienenverkehr zu verbessern. Damit die Daten ausgewertet werden können, müssen sie allerdings in einem konsistenten Zustand (das heißt vollständig und korrekt) vorliegen. Da Infrastrukturdaten sowie Soll- und Ist-Zeiten von Zugfahrten jeweils in verschiedenen Systemen erfasst werden, müssen die Daten zunächst vereinheitlicht und zusammengeführt werden. Dieser Beitrag stellt eine datengetriebene Infrastruktur-Modellierung und Integration von historischen Zugfahrtdaten vor. Dabei werden Daten der Deutschen Bahn aus einem Fahrplanjahr verwendet. Das Ziel besteht darin, systembedingte Inkonsistenzen bei der Zusammenführung der Daten zu beseitigen und die Integrität der Daten für weitere Analysen und Optimierungsansätze sicherzustellen. Außerdem werden Fahrtverläufe vereinheitlicht, damit diese besser miteinander verglichen werden können. In diesem Zusammenhang werden die Daten in ein JSON-Format transformiert, wodurch ein Vergleich von Soll- und Ist-Zeiten an allen Messpunkten möglich ist. Die Ergebnisse dieser Arbeit zeigen, dass in einem Datensatz mit 27 Mio. Zugfahrten 7 % aller Fahrten zunächst nicht für eine pauschale Weiterverarbeitung geeignet waren, weil zum Beispiel fehlende oder inkonsistente Werte vorlagen. Etwa 70 % der betroffenen Fahrten konnten automatisiert vervollständigt und harmonisiert werden. Dadurch wurde ein integrierter und bereinigter Datensatz erstellt, der als Grundlage zur Fahrplanoptimierung oder zur Analyse von Zugverspätungen verwendet werden kann. The analysis of historical trip data offers railway operators the opportunity to identify relations between delays, to better understand their causes and to take appropriate action. The information obtained can be used, for example, to create more robust timetables and thus improve punctuality in rail transport. However, for the data to be evaluated, it must be in a consistent state (i. e. complete and correct). Since infrastructure data as well as planned and actual times of train movements are recorded in different systems, the data must first be standardized and merged. This paper presents a data-driven approach for infrastructure modelling and integration of historical train running data. Data from Deutsche Bahn from one timetable year is used. The aim is to eliminate system-related inconsistencies in the consolidation of the data and to ensure the integrity of the data for further analyses and optimization approaches. In addition, the train trips are standardized so that they can be better compared with each other. In this context, the data will be transformed into a JSON format, enabling a comparison of planned and actual event times at all measuring points. The results of this work show that in a data set with 27 million train journeys, 7% of all journeys were initially not suitable for further processing because, for example, missing or inconsistent values were present. Approximately 70% of the affected trips could be completed and harmonized automatically. This resulted in the creation of an integrated and cleansed data set that can be used as a basis for timetable optimization or for the analysis of train delays.
- ZeitschriftenartikelData Science für Lehre, Forschung und Praxis(HMD Praxis der Wirtschaftsinformatik: Vol. 51, No. 4, 2014) Stockinger, Kurt; Stadelmann, ThiloData Science ist in aller Munde. Nicht nur wird an Konferenzen zu Big Data, Cloud Computing oder Data Warehousing darüber gesprochen: Glaubt man dem McKinsey Global Institute, so wird es alleine in den USA in den nächsten Jahren eine Lücke von bis zu 190.000 Data Scientists geben (Manyika et al. Big data: the next frontier for innovation, competition, and productivity, Report. www.mckinsey.com/insights/business_technology/big_data_the_next_frontier_for_innovation, 2011). In diesem Kapitel beleuchten wir daher zunächst die Hintergründe des Begriffs Data Science. Dann präsentieren wir typische Anwendungsfälle und Lösungsstrategien auch aus dem Big Data Umfeld. Schließlich zeigen wir am Beispiel des Diploma of Advanced Studies in Data Science der ZHAW Möglichkeiten auf, selber aktiv zu werden.
- ZeitschriftenartikelDatenanalyse und Massendatenauswertungen durch die Interne Revision im Kontext des Datenschutzes(HMD Praxis der Wirtschaftsinformatik: Vol. 53, No. 3, 2016) Sowa, AleksandraDer im Jahre 2009 in das BDSG als Arbeitnehmerschutzvorschrift eingefügte § 32 regelt den Umgang mit den Beschäftigtendaten. § 32 gilt für automatisierte Auswertungen und Analysen der E‑Mail-Korrespondenz und/oder für Chatprotokolle durch die Interne Revision beim konkreten Verdacht auf Straftaten. Die systematische Prüfung der Zulässigkeit einer Datenauswertung kann entlang eines Algorithmus erfolgen.
- ZeitschriftenartikelDigitale Wirtschaftsprüfung – Make or Buy?(HMD Praxis der Wirtschaftsinformatik: Vol. 55, No. 2, 2018) Langhein, Johannes; Kiesow, Andreas; Strobel, Christian; Thomas, OliverDie Digitalisierung zwingt Unternehmen nahezu aller Branchen und Größenklassen dazu, Anpassungsmaßnahmen an ihren Geschäftsmodellen und den internen Prozessen vorzunehmen. Infolgedessen ergeben sich auch für Prüfungsgesellschaften neue Herausforderungen. Der Berufsstand muss sich ebenfalls verstärkt mit der Anpassung und Weiterentwicklung seiner Dienstleistungen auseinandersetzen, damit er aktuelle und künftige Anforderungen noch erfüllen kann. In diesem Zusammenhang steht dabei insbesondere die Implementierung und Ausweitung von geeigneten Datenanalysen in den Prüfungsprozessen im Fokus. Darüber hinaus werden seit der Beseitigung rechtlicher Hürden hinsichtlich des Einsatzes von Cloud-Services die hieraus entstehenden Optimierungspotenziale für die Kanzleien thematisiert. Insbesondere auf Prüfungsgesellschaften spezialisierte Cloud-Services können einen Beitrag zur Ausweitung von zuverlässigen Datenanalysen leisten und somit insgesamt die Digitalisierung im Prüfungswesen erhöhen. Gleichzeitig ist damit die Grundlage für die Umsetzung und Etablierung digitaler Geschäftsmodelle in der Wirtschaftsprüfung geschaffen. In dem vorliegenden Beitrag stellen die Autoren verschiedene Ansätze für digitale Geschäftsmodelle vor, welche entweder kanzleiinterne Lösungen oder eine Auslagerung an externe Dienstleistern vorsehen. Dabei soll insbesondere diskutiert werden, inwieweit diese Geschäftsmodelle und die mit deren Umsetzung verbundenen Änderungen der Rollenverteilungen und Zuständigkeiten im Prüfprozess, entscheidende Nutzenoptimierungen für Unternehmen und Prüfer schaffen. Ferner sollen kritische Erfolgsfaktoren identifiziert werden, welche durch digitale Geschäftsmodelle hinreichend berücksichtigt werden müssen, damit sie innerhalb der Wirtschaftsprüfung eine ernsthafte Alternative zu dem klassischen Prüfer-Mandanten Verhältnis darstellen. Digitalization is forcing companies of almost all industries and size classes to make adjustments to their business models and internal processes. As a result, new challenges for audit firms are present. The audit profession is forced to address the extent to which it must adapt and develop its services in order to meet current and future requirements. In this context, the topic of the implementation and expansion of suitable data analysis in the examination processes is particularly relevant. In addition, since the elimination of legal hurdles with regard to the use of cloud services, the resulting optimization potential for audit firms is being addressed. In particular, cloud services specializing in audit firms can contribute to the expansion of reliable data analysis in the audit process, thus increasing the overall digitalization in auditing. This also creates the basis for the implementation and establishment of digital business models in auditing. In this article, the authors present different approaches to digital business models, which provide either in-house solutions or outsourcing to external service providers. The authors discuss, in particular, to which extent these business models and the associated changes in the distribution of roles and responsibilities in the audit process create decisive benefit optimizations for companies and auditors. In addition, critical success factors are identified, which must be sufficiently taken into account by digital business models so that they represent a serious alternative to the traditional auditor-client relationship within the audit.
- KonferenzbeitragDigitalisierung von Analyse- und Auswertungsstrukturen im Kontext schulischer Wettbewerbsszenarien(DELFI 2020 – Die 18. Fachtagung Bildungstechnologien der Gesellschaft für Informatik e.V., 2020) Funke, Florian; Hofmann, SvenIm Rahmen des Mathematik-Wettbewerbs Run For Numbers nehmen Schülerinnen und Schüler an Schulen in den Bundesländern Sachsen, Thüringen und Brandenburg halbjährlich teil, um ihre mathematischen Fähigkeiten und Fertigkeiten zu testen. Mit Hilfe des siebenminütigen Speed-Tests soll ein möglichst umfassendes Bild des aktuellen Lernstands erfasst werden. Im folgenden Artikel werden die umgesetzten Maßnahmen zur Digitalisierung der Auswertung und Analyse der Wettbewerbsdaten sowie dabei eingesetzte Kenngrößen, Maße und Normen beschrieben. Es wird ebenso dargestellt, inwieweit die Verständlichkeit der Werte für Lernende und Lehrende im schulischen Kontext sichergestellt wird und welche Darstellungsformen und Formulierungen eingesetzt werden.
- KonferenzbeitragErste Untersuchungen zur Notenprognose für ein Kursempfehlungssystem(Proceedings of DELFI Workshops 2020, 2020) Wagner, Kerstin; Merceron, Agathe; Sauer, PetraKursempfehlungssysteme können den Studienerfolg unterstützen. Eine wichtige Komponente eines solchen Systems ist die Prognose der Note, die Studierende bei Kursbelegung erwarten können. In diesem Beitrag werden verschiedene Algorithmen zur Notenprognose eingesetzt und verglichen. Die Modelle der linearen Regression liefern die besseren Ergebnisse. Darüber hinaus haben sie den Vorteil, nachvollziehbar zu sein, was Nutzende befähigt, die Grenzen des Modells besser einzuschätzen, und somit zu entscheiden, wie viel Vertrauen sie dem System schenken möchten.
- ZeitschriftenartikelInnovation durch den Einsatz von Enterprise IoT-Lösungen: Ein Modell zur Bestimmung des Innovationspotenzials(HMD Praxis der Wirtschaftsinformatik: Vol. 56, No. 6, 2019) Marheine, Christian; Gruber, Lukas; Back, AndreaGetrieben durch Technologietrends wie das Internet der Dinge und günstigere Sensorik zielen Industrieunternehmen zunehmend darauf ab, aus den eigenen Daten und Analyseverfahren neue, innovative Produkte und Dienstleistungen zu schaffen. Durch den Einsatz von vernetzen Geräten und entsprechender Software entstehen häufig individuelle IoT-Lösungen mit denen sich Unternehmen im Markt differenzieren wollen. Doch wo liegen die Kernunterschiede zwischen verschiedenen IoT-Lösungen und welches Innovationspotenzial geht mit ihnen einher? Auch die Literatur gibt wenig Aufschluss über diese Frage. Basierend auf der Untersuchung 18 bereits existierender Reifegradmodelle sowie 5 Experteninterviews identifizieren wir vier Schlüsseldimensionen, (1) Datenquelle, (2) Datenziel, (3) Datenanalyse und (4) Datenbasierte Transformation, die mit ihren vier Ausprägungen das Innovationspotenzial verschiedener Enterprise IoT-Lösungen beschreiben. Auf Basis dieser Ergebnisse leiten wir ein Innovationsstufenmodell ab, das Unternehmen dabei hilft das Innovationspotenzial Ihrer IoT-Lösung zu erkennen und weitere Ausbaustufen aufzeigt. Im Anschluss demonstrieren wir die Anwendung des Modells, indem wir es zur Klassifizierung von zwei IoT-Lösungen aus Industrieunternehmen benutzen. Dabei schließen wir einerseits die konzeptionelle Lücke mit einem Modell, das Aussagen über den Einfluss von IoT auf Unternehmensinnovation macht, und bieten der Praxis ein konkretes Werkzeug, um Managementaufgaben im Zusammenhang mit der Entwicklung neuer und innovativer Produkte und Dienstleistungen zu unterstützen. Driven by trends in technology, like the Internet of Things, industrial companies seek to create new, innovative products and services based on their own data. By using connected things and data analytics companies leverage individual enterprise IoT solutions to differentiate in the market. But what characteristics define different maturity levels of IoT solutions? How do these IoT solutions open up a company’s further potential to innovate? Based on a study of 18 existing maturity models and 5 expert interviews, we identify four key dimensions of IoT solutions’ innovation stages: (1) data source, (2) data target, (3) data analysis and (4) data-based transformation. This model helps companies to determine the innovation potential of their IoT solution and to plan further innovation stages. We demonstrate the model’s utility by applying it to two industrial IoT solutions. On the one hand, we close the conceptual gap with a model that makes statements about the influence of IoT on business innovation. On the other hand, we offer a specific instrument to support management tasks in connection with the development of new and innovative products and services.
- KonferenzbeitragKI-Technologieentwicklung und Bildung als miteinander in Beziehung stehende Aufgaben für die Lehrerbildung(INFORMATIK 2023 - Designing Futures: Zukünfte gestalten, 2023) Seegerer, Stefan; Gläser-Zikuda, Michaela; Hofmann, Florian; Romeike, RalfDer Beitrag stellt einen Forschungsansatz zur Adressierung von Chancen und Herausfor- derungen des Einsatzes von KI in der Lehrerbildung im Portfoliokontext vor. Im Fokus steht die Frage, wie die Professionalisierung von Lehramtsstudierenden sowie die Hochschullehre durch den Einsatz Künstlicher Intelligenz in Abstimmung mit der Kompetenzentwicklung der Lernenden und Lehrenden im Bereich KI unterstützt werden können. Neben der forschungsbasierten Entwicklung geeigneter KI-Methoden gilt hierbei ein besonderes Augenmerk der KI-Bildung der Studierenden, um auch die notwendigen motivationalen und volitionalen Voraussetzungen für den Einsatz eines KI-Systems zu berücksichtigen.