Auflistung nach Autor:in "Leymann, Frank"
1 - 10 von 167
Treffer pro Seite
Sortieroptionen
- KonferenzbeitragAdaptive XML access control based on query nesting, modification and simplification(Datenbanksysteme in Business, Technologie und Web, 11. Fachtagung des GIFachbereichs “Datenbanken und Informationssysteme” (DBIS), 2005) Böttcher, Stefan; Steinmetz, RitaAccess control is an important aspect in guaranteeing data privacy within XML data sources which are accessed by users with different access rights. The goal of predicative access control for XML data sources is to use XPath expressions to describe that fragment of a given document or database that can be accessed by queries of a certain user. Our approach to access control hides the XML data source within an access control module which implements a combination of two secure query execution plans. The first query execution plan works on copied secure fragments, whereas the second query execution plan transforms a given query into another query that respects all the access rights. For each query the appropriate secure execution plan is determined depending on the query and the user's access rights.
- KonferenzbeitragAnfrage-getriebener Wissenstransfer zur Unterstützung von Datenanalysten(Datenbanksysteme für Business, Technologie und Web (BTW 2017), 2017) Wahl, Andreas M.; Endler, Gregor; Schwab, Peter K.; Herbst, Sebastian; Lenz, RichardIn größeren Organisationen arbeiten verschiedene Gruppen von Datenanalysten mit unterschiedlichen Datenquellen, um analytische Fragestellungen zu beantworten. Das Formulieren effektiver analytischer Anfragen setzt voraus, dass die Datenanalysten profundes Wissen über die Existenz, Semantik und Verwendungskontexte relevanter Datenquellen besitzen. Derartiges Wissen wird informell innerhalb einzelner Gruppen von Datenanalysten geteilt, jedoch meist nicht in formalisierter Form für andere verfügbar gemacht. Mögliche Synergien bleiben somit ungenutzt. Wir stellen einen neuartigen Ansatz vor, der existierende Datenmanagementsysteme mit zusätzlichen Fähigkeiten für diesen Wissenstransfer erweitert. Unser Ansatz fördert die Kollaboration zwischen Datenanalysten, ohne dabei etablierte Analyseprozesse zu stören. Im Gegensatz zu bisherigen Forschungsansätzen werden die Analysten beim Transfer des in analytischen Anfragen enthaltenen Wissens unterstützt. Relevantes Wissen wird aus dem Anfrageprotokoll extrahiert, um das Auffinden von Datenquellen und die inkrementelle Datenintegration zu erleichtern. Extrahiertes Wissen wird formalisiert und zum Anfragezeitpunkt bereitgestellt.
- KonferenzbeitragEin Ansatz zur Unterstützung des Kostümmanagements im Film auf Basis einer Mustersprache(Modellierung 2012, 2012) Barzen, Johanna; Leymann, Frank; Schumm, David; Wieland, MatthiasDas Kostüm im Film ist ein komplexes Konstruktionsinstrument, welches der Charakterisierung der Figuren, des Raums und der Zeit dient. Recherche, Entwurf und Wissensmanagement von Kostümen werden derzeit meist mit Hilfe zeit-, kostenund ressourcenintensiver Analyse von Datensätzen in Microsoft Excel durchgeführt. Darüber hinausgehende Unterstützung durch IT- Werkzeuge beschränkt sich auf die einfache Dokumentation, Inventarisierung und Administration von Kostümen als Ganzes. In dieser Arbeit stellen wir einen ersten Ansatz hin zu einer IT-Unterstützung für das Kostümmanagement vor. Dieser Ansatz basiert auf einer Mustersprache, welche die Modellierung und den Aufbau von Kostümen aus atomaren und zusammengesetzten Mustern erlaubt, sowie die Relationen von Kostümen und Mustern zum Ausdruck bringt. Darauf aufbauend kann ein IT-System implementiert werden, welches mittels Datenbanktechniken und Workflowsystemen das Management von Kostümen vereinfachen soll.
- KonferenzbeitragApplication and Testing of Business Processes in the Energy Domain(Datenbanksysteme für Business, Technologie und Web (BTW 2017) - Workshopband, 2017) Böhmer, Kristof; Stertz, Florian; Hildebrandt, Tobias; Rinderle-Ma, Stefanie; Eibl, Günther; Ferner, Cornelia; Burkhart, Sebastian; Engel, DominikThe energy domain currently struggles with radical legal and technological changes, such as, smart meters. This results in new use cases which can be implemented based on business process technology. Understanding and automating business processes requires to model and test them. However, existing process testing approaches frequently struggle with the testing of process resources, such as ERP systems, and negative testing. Hence, this work presents a toolchain which tackles that limitations. The approach uses an open source process engine to generate event logs and applies process mining techniques in a novel way.
- Konferenzbeitragasprin: Answer Set Programming with Preferences(Datenbanksysteme für Business, Technologie und Web (BTW 2017) - Workshopband, 2017) Romero, JavierAnswer Set Programming (ASP) is a well established approach to declarative problem solving, combining a rich yet simple modeling language with high-performance solving capacities. In this talk we present asprin, a general, flexible and extensible framework for preferences in ASP. asprin is general and captures many of the existing approaches to preferences. It is flexible, because it allows for the combination of different types of preferences. It is also extensible, allowing for an easy implementation of new approaches to preferences. Since it is straightforward to capture propositional theories and constraint satisfaction problems in ASP, the framework is also relevant to optimization in Satisfiability Testing and Constraint Processing.
- KonferenzbeitragAuswahl geeigneter Technologien für betriebliche Integrationsszenarien(Datenbanksysteme in Business, Technologie und Web, 11. Fachtagung des GIFachbereichs “Datenbanken und Informationssysteme” (DBIS), 2005) Friebe, Jörg; Luhmann, Till; Meister, JürgenIntegration ist eine wichtige Anforderung an Entwurf und Implementierung betrieblicher Informationssysteme. Am Markt gibt es ein breites Spektrum an anspruchsvollen, oft noch im Wandel begriffenen Werkzeugen und Technologien (z.B. ETL, Application Server, Web Services, EAI, WfMS, SOA) mit zum Teil ähnlicher Funktionalität zur Lösung der Integrationsaufgaben. Die spezifische Auswahl eines geeigneten Werkzeugs für ein konkretes Integrationsszenario gestaltet sich daher schwierig. Zur Unterstützung dieses Prozesses wird eine praxisorientierte Bewertungssystematik eingeführt: Diese beschreibt die Eignung der unterschiedlichen Werkzeugklassen für typische Integrationsaufgaben, die anhand praktischer Erfahrungen mit Integrationsprojekten gewonnen wurden. Durch die Anwendung solcher Orientierungshilfen kann der Praktiker eine schnelle Vorauswahl geeigneter Werkzeugklassen treffen, so dass im Folgeschritt für ein spezielles Integrationsszenario nur eine Teilmenge der in Frage kommenden Werkzeuge genauer auf ihre funktionale und technologische Eignung untersucht werden muss.
- KonferenzbeitragAutoGlobe: Automatische Administration von dienstbasierten Datenbankanwendungen(Datenbanksysteme in Business, Technologie und Web, 11. Fachtagung des GIFachbereichs “Datenbanken und Informationssysteme” (DBIS), 2005) Gmach, Daniel; Seltzsam, Stefan; Wimmer, Martin; Kemper, AlfonsDerzeit lässt sich ein Trend weg von monolithischen Systemen hin zu Service Oriented Architectures (SOAs) beobachten. Dieser Paradigmenwechsel erfordert neue Administrationstechniken, um die auf SOAs basierenden verteilten Datenbankanwendungen zuverlässig und kostengünstig betreiben zu können. Zu diesem Zweck entwickeln wir neue Selbstadministrierungskonzepte. Die Grundlage hierfür bilden die Virtualisierung von Hardware und Diensten, sowie ein kontinuierliches Monitoring. Dadurch ist es möglich, die Verteilung der Dienste auf die zur Verfügung stehende Hardware durch statische und dynamische Allokationstechniken zu optimieren. Statische Al- lokationsalgorithmen liefern eine optimierte a priori Verteilung der Dienste auf die Hardware. Dazu werden Dienste mit komplementären Ressourcenanforderungen möglichst gemeinsam auf einem Rechner ausgeführt. Eine rein statische Optimierung kann allerdings nicht zeitnah auf unvorhersagbare Er- eignisse, wie etwa Überlastoder Fehlersituationen, reagieren. Deshalb setzen wir zusätzlich eine auf Fuzzy-Logik basierende Kontrollkomponente ein, die zur Laufzeit dynamisch Anpassungen der Dienstallokation vornimmt. Beispielsweise werden abgestürzte Dienste neu gestartet und Überlastsituationen durch Hinzunahme weiterer Instanzen oder den Umzug einer Instanz auf einen leistungsfähigeren Rechner behoben. Die vorgestellten Technologien stellen damit einen ersten Schritt in Richtung eines durchgängigen Quality of Service-Managements (QoS-Management) in einer derartigen Infrastruktur dar. AutoGlobe ist die prototypische Umsetzung der in diesem Beitrag beschriebenen Konzepte für eine adaptive Infrastruktur, die sich durch Selbstkonfiguration, Selbstoptimierung und eigenständige Fehlerbehebung auszeichnet.
- KonferenzbeitragAutomatic topology completion of TOSCA-based cloud applications(Informatik 2014, 2014) Hirmer, Pascal; Breitenbücher, Uwe; Binz, Tobias; Leymann, FrankAutomation of application provisioning is one of the key aspects of Cloud Computing. Standards such as the Topology and Orchestration Specification for Cloud Applications (TOSCA) provide a means to model application topologies which can be provisioned fully automatically. Many automated provisioning engines require that these topologies are complete in the sense of specifying all application, platform, and infrastructure components. However, modeling complete models is a complex, timeconsuming, and error-prone task that typically requires a lot of technical expertise. In this paper, we present an approach that enables users to model incomplete TOSCA application topologies that are completed automatically to deployable, complete models. This enables users to focus on the business-relevant application components and simplifies the creation process tremendously by minimizing the required effort and know-how. We prove the technical feasibility of the presented approach by a prototypical implementation based on the open source modeling tool Winery. In addition, we evaluate the approach by standards-compliance and performance.
- KonferenzbeitragAutonomous Data Ingestion Tuning in Data Warehouse Accelerators(Datenbanksysteme für Business, Technologie und Web (BTW 2017), 2017) Stolze, Knut; Beier, Felix; Müller, JensThe IBM DB2 Analytics Accelerator (IDAA) is a state-of-the art hybrid database system that seamlessly extends the strong transactional capabilities of DB2 for z/OS with very fast processing of OLAP and analytical SQL workload in Netezza. IDAA copies the data from DB2 for z/OS into its Netezza backend, and customers can tailor data maintenance according to their needs. This copy process, the data load, can be done on a whole table or just a physical table partition. IDAA also o ers an incremental update feature, which employs replication technologies for low-latency data synchronization. The accelerator targets big relational databases with several TBs of data. Therefore, the data load is performance-critical, not only for the data transfer itself, but the system has to be able to scale up to a large number of tables, i. e., tens of thousands to be loaded at the same time, as well. The administrative overhead for such a number of tables has to be minimized. In this paper, we present our work on a prototype, which is geared towards e ciently loading data for many tables, where each table may store only a comparably small amount of data. A new load scheduler has been introduced for handling all concurrent load requests for disjoint sets of tables. That is not only required for a multi-tenant setup, but also a significant improvement for attaching an accelerator to a single DB2 for z/OS system. In this paper, we present architecture and implementation aspects of the new and improved load mechanism and results of some initial performance evaluations.
- KonferenzbeitragBenchmarking Univariate Time Series Classifiers(Datenbanksysteme für Business, Technologie und Web (BTW 2017), 2017) Schäfer, Patrick; Leser, UlfTime series are a collection of values sequentially recorded over time. Nowadays, sensors for recording time series are omnipresent as RFID chips, wearables, smart homes, or event-based systems. Time series classification aims at predicting a class label for a time series whose label is unknown. Therefore, a classifier has to train a model using labeled samples. Classification time is a key challenge given new applications like event-based monitoring, real-time decision or streaming systems. This paper is the first benchmark that compares 12 state of the art time series classifiers based on prediction and classification times. We observed that most of the state-of-the-art classifiers require extensive train and classification times, and might not be applicable for these new applications.