P065 - BTW2005 - Datenbanksysteme in Business, Technologie und Web
Auflistung P065 - BTW2005 - Datenbanksysteme in Business, Technologie und Web nach Erscheinungsdatum
1 - 10 von 40
Treffer pro Seite
Sortieroptionen
- KonferenzbeitragFlexible Autorisierung in Web Service-Föderationen(Datenbanksysteme in Business, Technologie und Web, 11. Fachtagung des GIFachbereichs “Datenbanken und Informationssysteme” (DBIS), 2005) Wimmer, Martin; Ehrnlechner, Pia; Kemper, AlfonsDie Web Service-Technologie stellt die Grundlage für Service Oriented Architectures (SOAs) dar. Dabei ist eine SOA im Wesentlichen ein Zusammenschluss von interagierenden Diensten. Neben dem einfachen Austausch von Daten bedeutet Interaktion insbesondere die Bildung höherwertiger Dienste aus elementareren. In diesem Beitrag stellen wir ein auf XACML basierendes Autorisierungssystem für SOAs vor. Es kann zum einen für die Zugriffskontrolle einzelner Dienste eingesetzt werden. Dienste sind zur Be- reitstellung ihrer Funktionalität häufig auf weitere Betriebsmittel wie Datenbanken angewiesen. Da Datenbanksysteme meist eine eigenständige, von der der Dienste unabhängige Autorisierung durchführen, erfolgt dann eine mehrstufige Autorisierung. In diesem Beitrag werden Verfahren für die Abstimmung dieser Autorisierungsschritte vorgestellt. Zum anderen stellt das System Techniken für die organisationsübergreifende Weitergabe von Privilegien bereit. Dieser Delegationsmechanismus bildet die Grundlage sowohl für den Aufbau von schwach wie auch stark gekoppelten Web Service-Föderationen. Schwach gekoppelte Zusammenschlüsse basieren oft auf ad-hoc Interaktionen, wohingegen bei stark gekoppelten in der Regeln eine so genannte Trusted Third Party eine Vermittlerrolle einnimmt. Besondere Anforderungen ergeben sich in Bezug auf die Effizienz verteilter Autorisierung. Die Skalierbarkeit des vorgestellten Ansatzes wird durch den Einsatz von rollenbasierter Zugriffskontrolle (RBAC) und Caching-Techniken gewährleistet: Mittels RBAC wird der Verwaltungsaufwand für Rechtezuweisungen verringert. Caching von Autorisierungspfaden reduziert den Kommunikationsaufwand für die verteilte Autorisierungsüberprüfung.
- KonferenzbeitragTowards reliable data stream processing with OSIRIS-SE(Datenbanksysteme in Business, Technologie und Web, 11. Fachtagung des GIFachbereichs “Datenbanken und Informationssysteme” (DBIS), 2005) Brettlecker, Gert; Schuldt, Heiko; Schek, Hans-JörgRecent advances in sensor technologies, wireless communication, powerful mobile devices, and wearable computers strongly support novel types of applications. Especially in healthcare, telemonitoring applications will make use of this new technology to improve the quality of treatment and care for patients and the elderly. These telemonitoring applications require an infrastructure that is able to efficiently combine, process, and manage continuous streams of data coming from the different sensors. In healthcare where applications can be life saving, a particularly important requirement is that this infrastructure is highly reliable. In this paper, we introduce OSIRIS-SE, a novel information management infrastructure for data stream processing based on the hyperdatabase OSIRIS that features a high degree of reliability.
- KonferenzbeitragIntegrating the relational interval tree into IBM's DB2 universal database server(Datenbanksysteme in Business, Technologie und Web, 11. Fachtagung des GIFachbereichs “Datenbanken und Informationssysteme” (DBIS), 2005) Brochhaus, Christoph; Enderle, Jost; Schlosser, Achim; Seidl, Thomas; Stolze, KnutUser-defined data types such as intervals require specialized access methods to be efficiently searched and queried. As database implementors cannot provide appropriate index structures and query processing methods for each conceivable data type, present-day object-relational database systems offer extensible indexing frameworks that enable developers to extend the set of built-in index structures by custom access methods. Although these frameworks permit a seamless integration of user-defined indexing techniques into query processing they do not facilitate the actual implementation of the access method itself. In order to leverage the applicability of indexing frameworks, relational access methods such as the Relational Interval Tree (RI-tree), an efficient index structure to process interval intersection queries, mainly rely on the functionality, robustness and performance of built-in indexes, thus simplifying the index implementation significantly. To investigate the behavior and performance of the recently released IBM DB2 indexing framework we use this interface to integrate the RI-tree into the DB2 server. The standard implementation of the RI-tree, however, does not fit to the narrow corset of the DB2 framework which is restricted to the use of a single index only. We therefore present our adaptation of the originally two-tree technique to the single index constraint. As experimental results with interval intersection queries show, the plugged-in access method delivers excellent performance compared to other techniques.
- KonferenzbeitragSelf-extending peer data management(Datenbanksysteme in Business, Technologie und Web, 11. Fachtagung des GIFachbereichs “Datenbanken und Informationssysteme” (DBIS), 2005) Heese, Ralf; Herschel, Sven; Naumann, Felix; Roth, ArminPeer data management systems (PDMS) are the natural extension of integrated information systems. Conventionally, a single integrating system manages an integrated schema, distributes queries to appropriate sources, and integrates incoming data to a common result. In contrast, a PDMS consists of a set of peers, each of which can play the role of an integrating component. A peer knows about its neighboring peers by mappings, which help to translate queries and transform data. Queries submitted to one peer are answered by data residing at that peer and by data that is reached along paths of mappings through the network of peers. The only restriction for PDMS to cover unbounded data is the need to formulate at least one mapping from some known peer to a new data source. We propose a Semantic Web based method that overcomes this restriction, albeit at a price. As sources are dynamically and automatically included in a PDMS, three factors diminish quality: The new source itself might store data of poor quality, the mapping to the PDMS might be incorrect, and the mapping to the PDMS might be incomplete. To compensate, we propose a quality model to measure this effect, a cost model to restrict query planning to the best paths through the PDMS, and techniques to answer queries in such Webscale PDMS efficiently.
- KonferenzbeitragWeb data extraction for business intelligence: the lixto approach(Datenbanksysteme in Business, Technologie und Web, 11. Fachtagung des GIFachbereichs “Datenbanken und Informationssysteme” (DBIS), 2005) Baumgartner, Robert; Fröhlich, Oliver; Gottlob, Georg; Harz, Patrick; Herzog, Marcus; Lehmann, PeterKnowledge about market developments and competitor activities on the market becomes more and more a critical success factor for enterprises. The World Wide Web provides public domain information which can be retrieved for example from Web sites or online shops. The extraction from semi-structured information sources is mostly done manually and is therefore very time consuming. This paper describes how public information can be extracted automatically from Web sites, transformed into structured data formats, and used for data analysis in Business Intelligence systems.
- KonferenzbeitragElement relationship: Exploiting inline markup for better XML retrieval(Datenbanksysteme in Business, Technologie und Web, 11. Fachtagung des GIFachbereichs “Datenbanken und Informationssysteme” (DBIS), 2005) Dopichaj, PhilippWith the increasing popularity of semi-structured documents (particularly in the form of XML) for knowledge management, it is important to create tools that use the additional information contained in the markup. Although research on textual XML retrieval is still in its early stages, many retrieval approaches and engines exist. The use of inline markup in these engines so far is very limited. We introduce the concept of element relationship and describe how it can improve similarity calculation. We illustrate our ideas with examples based on an existing document collection.
- KonferenzbeitragDas Common Warehouse Metamodel als Referenzmodell für Metadaten im Data Warehouse und dessen Erweiterung im SAP® Business Information Warehouse(Datenbanksysteme in Business, Technologie und Web, 11. Fachtagung des GIFachbereichs “Datenbanken und Informationssysteme” (DBIS), 2005) Hahne, MichaelHeterogene Data Warehouse-Landschaften sind durch eine Vielzahl verschiedener Softwarekomponenten gekennzeichnet, deren Integration zu einer funktionierenden Business Intelligence-Lösung eine besondere Herausforderung darstellt. Die Metadaten der beteiligten Komponenten stellen dabei einen viel versprechenden Ansatz der effektiven und effizienten Verknüpfung dar, die aber durch die proprietären Metadatenmodelle erschwert wird. Das von der Object Management Group verabschiedete Common Warehouse Metamodel (CWM) hat sich inzwischen als industrieweiter Standard zur Modellierung von Metadaten in Data Warehouse-Systemen sowie zu deren Austausch etabliert. Die Architekturund Plattformunabhängigkeit dieses Metamodells bedingt zwar eine fehlende Berücksichtigung der spezifischen Objekte dedizierter Werkzeuge, das CWM stellt hierfür aber flexible Möglichkeiten der Erweiterung bereit. Das SAP Business Information Warehouse ist mit eines der führenden Data Warehouse-Systeme und setzt für den Austausch von Metadaten eine Erweiterung des CWM ein. In diesem spezifischen Metamodell findet sich neben der Abbildung des spezifischen Datenmodells des BW insbesondere auch die Berücksichtigung von Berechtigungen und des SAP Rollenkonzeptes.
- KonferenzbeitragAdaptive XML access control based on query nesting, modification and simplification(Datenbanksysteme in Business, Technologie und Web, 11. Fachtagung des GIFachbereichs “Datenbanken und Informationssysteme” (DBIS), 2005) Böttcher, Stefan; Steinmetz, RitaAccess control is an important aspect in guaranteeing data privacy within XML data sources which are accessed by users with different access rights. The goal of predicative access control for XML data sources is to use XPath expressions to describe that fragment of a given document or database that can be accessed by queries of a certain user. Our approach to access control hides the XML data source within an access control module which implements a combination of two secure query execution plans. The first query execution plan works on copied secure fragments, whereas the second query execution plan transforms a given query into another query that respects all the access rights. For each query the appropriate secure execution plan is determined depending on the query and the user's access rights.
- KonferenzbeitragVerteilte Anfrageverarbeitung in DHT-basierten P2P-Systemen(Datenbanksysteme in Business, Technologie und Web, 11. Fachtagung des GIFachbereichs “Datenbanken und Informationssysteme” (DBIS), 2005) Rösch, Philipp; Weth, Christian von der; Sattler, Kai-Uwe; Buchmann, ErikPeer-to-Peer (P2P)-Systeme und hierbei speziell verteilte Datenstrukturen versprechen Skalierbarkeit bis auf Internet-Größe bei fairer Verteilung der Infrastrukturkosten und hoher Robustheit. Für viele potenzielle Anwendungen sind die von derartigen Systemen unterstützten einfachen Schlüsselzugriffe nicht ausreichend - vielmehr ist die Verwaltung und Anfrage komplex strukturierter Daten notwendig. In diesem Beitrag untersuchen wir daher, ob und wie sich Operationen und Strategien für die verteilte Verarbeitung SQL-artiger Anfragen in P2P-Systemen auf Basis verteilter Hashtabellen effizient realisieren lassen.
- KonferenzbeitragSortierbasierte Joins über Datenströmen(Datenbanksysteme in Business, Technologie und Web, 11. Fachtagung des GIFachbereichs “Datenbanken und Informationssysteme” (DBIS), 2005) Cammert, Michael; Heinz, Christoph; Krämer, Jürgen; Seeger, BernhardDer effektiven Berechnung von Joins kommt auch in der Datenstromverarbeitung essentielle Bedeutung zu. In dieser Arbeit adaptieren wir daher die für eine Vielzahl verschiedener Joinprädikate geeignete sortierbasierte Joinverarbeitung von der passiven auf die aktive Datenverarbeitung. Wir zeigen auf, wie man das Problem der Verarbeitung potentiell unbegrenzter Datenströme mit Hilfe einer exakten Zeitfenstersemantik löst. Zu deren Realisierung stellen wir verschiedene Hauptund Externspeicheralgorithmen vor. Abschließend erweitern wir die vorgestellten Operatoren für die Berechnung mehrdimensionaler Joins und zeigen experimentell die Vorteile dieses Ansatzes gegenüber binär kaskadierten Joins auf.