Auflistung nach Schlagwort "Data management"
1 - 10 von 10
Treffer pro Seite
Sortieroptionen
- ZeitschriftenartikelConnecting Knowledge to Data Through Transformations in KnowID: System Description(KI - Künstliche Intelligenz: Vol. 34, No. 3, 2020) Fillottrani, Pablo R.; Jamieson, Stephan; Keet, C. MariaIntelligent information systems deploy applied ontologies or logic-based conceptual data models for effective and efficient data management and to assist with decision-making. A core deliberation in the design of such systems, is how to link the knowledge to the data. We recently designed a novel knowledge-to-data architecture (KnowID) which aims to solve this critical step through a set of transformation rules rather than a mapping layer, which operate between models represented in EER notation and an enhanced relational model called the ARM. This system description zooms in on the novel tool for the core component of the transformation from the Artificial Intelligence-oriented modelling to the relational database-oriented data management. It provides an overview of the requirements, design, and implementation of the modular transformations module that straightforwardly permits extension with other components of the modular KnowID architecture.
- ZeitschriftenartikelData products, data mesh, and data fabric(Business & Information Systems Engineering: Vol. 66, No. 5, 2024) Blohm, Ivo; Wortmann, Felix; Legner, Christine; Köbler, Felix
- KonferenzbeitragDeep Learning Datasets Challenges For Semantic Segmentation - A Survey(INFORMATIK 2023 - Designing Futures: Zukünfte gestalten, 2023) Ponciano, Claire; Schaffert, Markus; Ponciano, Jean-JacquesThis survey offers a comprehensive analysis of challenges encountered when employing large-scale datasets for deep learning-based semantic segmentation, an area with significant implica- tions for industries such as autonomous driving, precision agriculture, and medical imaging. Through a systematic review of 94 papers from Papers with Code, we identified 32 substantial challenges, which we categorized into six key areas: Data Quality and Quantity, Data Preprocessing, Resource Constraints, Data Management and Privacy, Generalization, and Data Compatibility. By identifying and explicating these challenges, our research provides a crucial reference point for future studies aiming to address these issues and enhance the performance of deep learning models for semantic segmentation. Future work will focus on leveraging AI and semantic technologies to provide solutions to these challenges.
- ZeitschriftenartikelDesigning an Event Store for a Modern Three-layer Storage Hierarchy(Datenbank-Spektrum: Vol. 20, No. 3, 2020) Glombiewski, Nikolaus; Götze, Philipp; Körber, Michael; Morgen, Andreas; Seeger, BernhardEvent stores face the difficult challenge of continuously ingesting massive temporal data streams while satisfying demanding query and recovery requirements. Many of today’s systems deal with multiple hardware-based trade-offs. For instance, long-term storage solutions balance keeping data in cheap secondary media (SSDs, HDDs) and performance-oriented main-memory caches. As an alternative, in-memory systems focus on performance, while sacrificing monetary costs, and, to some degree, recovery guarantees. The advent of persistent memory (PMem) led to a multitude of novel research proposals aiming to alleviate those trade-offs in various fields. So far, however, there is no proposal for a PMem-powered specialized event store. Based on ChronicleDB, we will present several complementary approaches for a three-layer architecture featuring main memory, PMem, and secondary storage. We enhance some of ChronicleDB’s components with PMem for better insertion and query performance as well as better recovery guarantees. At the same time, the three-layer architecture aims to keep the overall dollar cost of a system low. The limitations and opportunities of a PMem-enhanced event store serve as important groundwork for comprehensive system design exploiting a modern storage hierarchy.
- ZeitschriftenartikelEnterprise Architekturmanagement (EAM) in einem Krankenhaus(HMD Praxis der Wirtschaftsinformatik: Vol. 55, No. 5, 2018) Mangiapane, Markus; Bender, MatthiasDie Hauptaufgabe eines Krankenhausbetriebes ist die Behandlung der Patienten. Alle nötigen Schritte von der Aufnahme bis zur Entlassung des Patienten tragen sowohl zur Qualität, als auch zu den Kosten der Behandlung bei. Ein Gesundheitsbetrieb muss sich auf dem heutigen Markt, der einerseits von steigenden Qualitätsansprüchen der Patienten, (freie Arzt- und Krankenhauswahl) und andererseits von der Forderung nach Kosteneffizienz geprägt ist, behaupten. Ein Weg zur Optimierung der Prozesse, sowohl in Qualität als auch Effizienz, wird in der Digitalisierung gesehen. In Krankenhäusern wird aus diesem Grunde versucht, durch die Einführung von Behandlungspfaden in Verbindung mit klinischen Informationssystemen, Prozesse mit dem Ziel zu standardisieren, den Behandlungsablauf wirtschaftlicher zu gestalten und eine Steigerung der Qualität zu erreichen. Der Artikel soll an Hand eines aktuellen Beispiels einen Einblick geben in die Schwierigkeiten, aber auch die Möglichkeiten der Krankenhausdigitalisierung im Jahr 2018. Basierend auf „best practices“, die in anderen Industriezweigen schon seit längerer Zeit im Rahmen der Digitalisierung genutzt werden, soll die geforderte organisationsweite, interprofessionelle und interdisziplinäre Sichtweise für die Analyse erreicht werden. Dafür wird das Enterprise Architecture Management (im Folgenden: EAM) das Mittel der Wahl sein, denn es bietet Frameworks für die Erarbeitung und Einführung. Auf dieser Basis wird eine Herangehensweise zur Lösung der oben genannten Probleme beschrieben und zur Diskussion gestellt, die den Weg des Patienten durch das Krankenhaus im Fokus hat. Das Modell soll möglichst einfach einen Überblick über die komplexen Zusammenhänge der digitalen Behandlungs- und Geschäftsprozessunterstützung geben, sodass auch den Beteiligten außerhalb der Informatik das benötigte Wissen zur Verfügung steht, um korrekte Entscheidungen treffen zu können. The main task of a hospital operation is the treatment of patients. All necessary steps from admission to discharge of the patient contribute to the quality as well as the cost of the treatment. A health care business must be able to maintain its position in today’s market, which is characterized on the one hand by the increasing quality demands of patients (free choice of doctor and hospital) and on the other by the demand for cost efficiency. One way to optimize processes, both in terms of quality and efficiency, is find in digitization. In hospitals, for this reason, attempts are made to standardize processes with the aim of making the treatment process more economical and achieving an increase in quality by introducing treatment paths in conjunction with clinical information systems. The article will provide an insight into the difficulties, but also the possibilities of hospital digitization in 2018, based on a current example. Based on “best practices”, which have been used in other industries for some time in the context of digitization, the required organizationwide, inter professional and interdisciplinary perspective for the analysis should be achieved. Enterprise Architecture Management (EAM) will be the tool of choice as it provides frameworks for development and deployment. On this basis, the approach should solving the described problems with a strict focuses on the patien’s path through the hospital. The model is intended to provide an overview of the complex interrelations of digital treatment and business process support as simply as possible, so that the participants outside of computer science also have the knowledge they need to make correct decisions.
- KonferenzbeitragExploring Existing Tools for Managing Different Types of Research Data(INFORMATIK 2024, 2024) Freund, Adrian; Hajiabadi, Hamideh; Koziolek, AnneData management is important for the reproducibility of scientific research. One important aspect of data management is version control. In software development, version control tools like Git are commonly used to track source code changes and releases, reproduce earlier versions, find defects, and simplify their repair. In scientific research, scientists often have to manage large amounts of data, while also trying to achieve reproducibility of results and wanting to identify and repair defects in the data. Version control software like Git is specialized for managing source code and other textual files, making it often unsuitable for managing other types of data. This creates a need for version control tools specialized for dealing with research data. This paper establishes requirements for version control tools for research data and evaluates Git Large File Storage, Neptune, Pachyderm, DVC, and Snowflake according to those requirements. We found that none of the evaluated tools fulfill all of our requirements, but we still recommend DVC, Git LFS, and Pachyderm for the use cases they do support.
- ZeitschriftenartikelIs Your Database System a Semantic Web Reasoner?(KI - Künstliche Intelligenz: Vol. 30, No. 2, 2016) Krötzsch, Markus; Rudolph, SebastianDatabases and semantic technologies are an excellent match in scenarios requiring the management of heterogeneous or incomplete data. In ontology-based query answering, application knowledge is expressed in ontologies and used for providing better query answers. This enhancement of database technology with logical reasoning remains challenging—performance is critical. Current implementations use time-consuming pre-processing to materialise logical consequences or, alternatively, compute a large number of large queries to be answered by a database management system (DBMS). Recent research has revealed a third option using recursive query languages to “implement” ontological reasoning in DBMS. For lightweight ontology languages, this is possible using the popular Semantic Web query language SPARQL 1.1, other cases require more powerful query languages like Datalog, which is also seeing a renaissance in DBMS today. Herein, we give an overview of these areas with a focus on recent trends and results.
- ZeitschriftenartikelKonsortialforschung zur Entwicklung von Referenzmodellen für die Digitalisierung von Unternehmen – Erfahrungen aus dem Datenmanagement(HMD Praxis der Wirtschaftsinformatik: Vol. 57, No. 2, 2020) Pentek, Tobias; Legner, ChristineReferenzmodelle sind wichtige, praxisrelevante Forschungsergebnisse der Wirtschaftsinformatik, die Unternehmen bei Digitalisierungsthemen wertvolle Orientierung bieten. Zu den Herausforderungen bei der Entwicklung von Referenzmodellen gehört der Zugang zu „implizitem“ Praxiswissen, das bei der Einführung und Nutzung von Technologien im Unternehmen entsteht. Dieser Beitrag beschäftigt sich damit, wie Konsortialforschung – als Form der multilateralen, institutionalisierten Zusammenarbeit zwischen Forschung und Praxis – für den Wissenstransfer und die rigorose Entwicklung von Referenzmodellen genutzt werden kann. Am Fallbeispiel des Data Excellence Models (DXM) illustrieren wir die iterative (Weiter‑)Entwicklung eines Referenzmodells, an dem 15 Unternehmen sowie Forscher aus drei Universitäten mitgewirkt haben. Aus dem Entwicklungsprozess und den Erfahrungen leiten wir Empfehlungen für die Referenzmodellentwicklung in Zusammenarbeit zwischen Forschung und Praxis ab. Reference models are important research results with practical relevance that support companies in their digitalization initiatives. One of the challenges in developing reference models is the access to “implicit” practical knowledge that is created when technologies are implemented and used. This article illustrates how consortium research—as a multilateral, institutionalized collaboration between researchers and practitioners—facilitates knowledge transfer and the rigorous development of reference models. For the case of the Data Excellence Model (DXM), we illustrate the iterative (re)design of a reference model, which was developed by 15 companies and researchers from three universities. Based on these experiences, we derive recommendations for developing reference models in research collaborations between academics and practitioners.
- ZeitschriftenartikelOntologies for the Virtual Materials Marketplace(KI - Künstliche Intelligenz: Vol. 34, No. 3, 2020) Horsch, Martin Thomas; Chiacchiera, Silvia; Seaton, Michael A.; Todorov, Ilian T.; Šindelka, Karel; Lísal, Martin; Andreon, Barbara; Bayro Kaiser, Esteban; Mogni, Gabriele; Goldbeck, Gerhard; Kunze, Ralf; Summer, Georg; Fiseni, Andreas; Brüning, Hauke; Schiffels, Peter; Cavalcanti, Welchy LeiteThe Virtual Materials Marketplace (VIMMP) project, which develops an open platform for providing and accessing services related to materials modelling, is presented with a focus on its ontology development and data technology aspects. Within VIMMP, a system of marketplace-level ontologies is developed to characterize services, models, and interactions between users; the European Materials and Modelling Ontology is employed as a top-level ontology. The ontologies are used to annotate data that are stored in the ZONTAL Space component of VIMMP and to support the ingest and retrieval of data and metadata at the VIMMP marketplace frontend.
- ZeitschriftenartikelVergleich der Umsetzungsoptionen für Steuersysteme im Verbund im Energiesektor: Sicherheitsanforderungen, Effizienz und Wirksamkeit auf zentraler und dezentraler Ebene(HMD Praxis der Wirtschaftsinformatik: Vol. 61, No. 4, 2024) Müller, Sven; Müller, Kevin; Hartmann, Kilian; Weindl, ChristianDer stetige Wandel von einer auf fossilen Rohstoffen basierenden Energieversorgung hin zu einer Versorgung auf Basis erneuerbarer Energien dient u. a. dem Ziel der Reduzierung des Kohlenstoffdioxidausstoßes. Dieser Wandel führt neben der Einsparung von Kohlenstoffdioxid zu einem Handlungsbedarf im Stromnetz, da durch die Substitution von steuerbaren durch dargebotsabhängige Erzeuger der Ausgleich zwischen Last und Erzeugung nicht mehr wie bisher durchgeführt werden kann. Ein möglicher Ansatz zur Lösung dieses Problems, ist zusätzlich zum Netzausbau die Ausgestaltung eines Smart Grids, welches durch Steuersysteme anhand verschiedener Netz‑, Umwelt- sowie ökonomischer Parameter erreicht werden kann. Dieser Artikel untersucht verschiedene zentrale und dezentrale Konzepte für die Datenhaltung in Smart Grid-Steuersystemen sowie die Datenverarbeitung, wobei hier die Aspekte der lokalen und der cloudbasierten Verarbeitung betrachtet werden. Betrachtungsgegenstand bei der Datenhaltung sind relationale Datenbanken, Blockchain und NoSQL-Datenbanken. Nach einem Vergleich der verschiedenen Konzepte anhand der Parameter Datensicherheit, Konsistenz, Skalierbarkeit, Kosten, Latenz, Verfügbarkeit und Komplexität sowie einer Abstimmung mit den Anforderungen eines zuvor definierten Use-Case wird eine Beurteilung darüber abgegeben, welches Konzept am besten den Anforderungen entspricht. Der Beitrag schließt mit einem Ausblick und einer Handlungsempfehlung. Eine ausführliche Analyse für die Datenverarbeitung wird in einem zukünftigen Paper veröffentlicht. The constant change from an energy supply based on fossil fuels to a supply based on renewable energies serves, among other things, the goal of reducing carbon dioxide emissions. In addition to the reduction of carbon dioxide, this change leads to a need for action in the electricity grid, as the substitution of controllable generators by supply-dependent generators means that load and generation can no longer be balanced as before. One possible approach to solving this problem, even before grid expansion, is the design of a smart grid, which can be achieved through control systems based on various grid and environmental parameters. This thesis examines various centralised and decentralised concepts for data storage in smart grid control systems as well as data processing, whereby the aspects of local and cloud-based processing are considered here. Relational databases, blockchain and NoSQL databases are considered for data storage. After a comparison of the various concepts based on the parameters of data security, consistency, scalability, costs, latency, availability and complexity as well as a comparison with the requirements of a previously defined use case, an assessment is made as to which concept best meets the requirements. The article concludes with an outlook and a recommendation for action. A detailed analysis for data processing will be published in a future paper.