Auflistung nach Autor:in "Kemper, Alfons"
1 - 10 von 75
Treffer pro Seite
Sortieroptionen
- KonferenzbeitragAlgebraic Query Optimization for Distributed Top-k Queries(Datenbanksysteme in Business, Technologie und Web (BTW 2007) – 12. Fachtagung des GI-Fachbereichs "Datenbanken und Informationssysteme" (DBIS), 2007) Neumann, Thomas; Michel, SebastianDistributed top-k query processing is increasingly becoming an essential functionality in a large number of emerging application classes. This paper addresses the efficient algebraic optimization of top-k queries in wide-area distributed data repositories where the index lists for the attribute values (or text terms) of a query are distributed across a number of data peers and the computational costs include network latency, bandwidth consumption, and local peer work. We use a dynamic programming approach to find the optimal execution plan using compact data synopses for selectivity estimation that is the basis for our cost model. The optimized query is executed in a hierarchical way involving a small and fixed number of communication phases. We have performed experiments on real web data that show the benefits of distributed top-k query optimization both in network resource consumption and query response time.
- KonferenzbeitragAlgorithms for merged indexes(Datenbanksysteme in Business, Technologie und Web (BTW 2007) – 12. Fachtagung des GI-Fachbereichs "Datenbanken und Informationssysteme" (DBIS), 2007) Graefe, Goetz
- KonferenzbeitragAnforderungen an Datenbanksysteme für Multi-Tenancy- und Software-as-a-Service-Applikationen(Datenbanksysteme in Business, Technologie und Web (BTW) – 13. Fachtagung des GI-Fachbereichs "Datenbanken und Informationssysteme" (DBIS), 2009) Aulbach, Stefan; Jacobs, Dean; Primsch, Jürgen; Kemper, AlfonsFür Multi-Tenancy-Applikationen und Software as a Service (SaaS) stellen sich konventionelle Datenbanksysteme oftmals als ungeeignet heraus. In einem solchen Umfeld müssen Anforderungen, wie Erweiterbarkeit und Verfügbarkeit, trotz geringer Kosten für den
- KonferenzbeitragAnreizmechanismen für Peer-to-Peer Web Crawling unter Berücksichtigung bösartiger Teilnehmer(Datenbanksysteme in Business, Technologie und Web (BTW 2007) – 12. Fachtagung des GI-Fachbereichs "Datenbanken und Informationssysteme" (DBIS), 2007) Steinhaus, Holger; Böhm, Klemens; Schosser, StephanWeb Crawling ist grundlegend für eine Vielzahl von Anwendungen. Aufgrund der damit verbundenen hohen Ressourcenanforderungen sind jedoch nur wenige Organisationen in der Lage, eigene Crawler zu betreiben. Um neue Anwendungsbereiche zu erschließen und eine hohe Skalierbarkeit sowie eine faire Verteilung der Kosten zu erreichen, muss Web Crawling nicht nur verteilt, sondern auch koordinatorfrei sein. Peer-to-Peer-Techniken können diese Anforderungen erfüllen, benötigen jedoch Anreizmechanismen, um Teilnehmer nachhaltig zur Beteiligung zu motivieren. Solche Mechanismen müssen jedoch einige Besonderheiten der Anwendung ’Web Crawling’ berücksichtigen: Die Erkennung von sich nicht beteiligenden Teilnehmern ist schwierig, da diese nicht direkt beobachtet werden kann. Weiterhin sollte es einem Teilnehmer erlaubt sein, vorübergehend nicht zu crawlen, ohne in den Augen anderer Peers als bösartig betrachtet zu werden. Weiterhin müssen die zu entwerfenden Mechanismen robust gegen gezielte bösartige Angriffe sein. Wir stellen im Folgenden Anreizmechanismen für ein Peer-to-Peer-System vor, die diese Anforderungen erfüllen. Neben einem Feedback-basierten Reputationssystem kommen dabei Mechanismen zum Einsatz; die eine Überprüfung von Leistungsbehauptungen einzelner Teilnehmern ermöglichen. Umfangreiche Simulationsexperimente evaluieren die Auswirkungen bösartiger Teilnehmer und zeigen die Effektivität und Robustheit des Ansatzes.
- KonferenzbeitragArmada: a Reference Model for an Evolving Database System(Datenbanksysteme in Business, Technologie und Web (BTW 2007) – 12. Fachtagung des GI-Fachbereichs "Datenbanken und Informationssysteme" (DBIS), 2007) Groffen, Fabian; Kersten, Martin; Manegold, StefanThe data on the web, in digital libraries, in scientific repositories, etc. con- tinues to grow at an increasing rate. Distribution is a key solution to overcome this data explosion. However, existing solutions are mostly based on architectures with a single point of failure. In this paper, we present Armada, a model for a database architecture to handle large data volumes. Armada assumes autonomy of sites, allowing for a decentralised setup, where systems can largely work independently. Furthermore, a novel administration schema in Armada, based on lineage trails, allows for flexible adaptation to the (query) work load in highly dynamic environments. The lineage trails capture the metadata and its history. They form the basis to direct updates to the proper sites, to break queries into multi-stage plans, and to provide a reference point for site consistency. The lineage trails are managed in a purely distributed fashion, each Armada site is responsible for their persistency and long term availability. They provide a minimal, but sufficient basis to handle all distributed query processing tasks. The analysis of the Armada reference architecture depicts a path for innovative research at many levels of a DBMS. Challenging many conventional database assumptions and theories, it will eventually allow large databases to continue to grow and stay flexible.
- KonferenzbeitragAutoGlobe: Automatische Administration von dienstbasierten Datenbankanwendungen(Datenbanksysteme in Business, Technologie und Web, 11. Fachtagung des GIFachbereichs “Datenbanken und Informationssysteme” (DBIS), 2005) Gmach, Daniel; Seltzsam, Stefan; Wimmer, Martin; Kemper, AlfonsDerzeit lässt sich ein Trend weg von monolithischen Systemen hin zu Service Oriented Architectures (SOAs) beobachten. Dieser Paradigmenwechsel erfordert neue Administrationstechniken, um die auf SOAs basierenden verteilten Datenbankanwendungen zuverlässig und kostengünstig betreiben zu können. Zu diesem Zweck entwickeln wir neue Selbstadministrierungskonzepte. Die Grundlage hierfür bilden die Virtualisierung von Hardware und Diensten, sowie ein kontinuierliches Monitoring. Dadurch ist es möglich, die Verteilung der Dienste auf die zur Verfügung stehende Hardware durch statische und dynamische Allokationstechniken zu optimieren. Statische Al- lokationsalgorithmen liefern eine optimierte a priori Verteilung der Dienste auf die Hardware. Dazu werden Dienste mit komplementären Ressourcenanforderungen möglichst gemeinsam auf einem Rechner ausgeführt. Eine rein statische Optimierung kann allerdings nicht zeitnah auf unvorhersagbare Er- eignisse, wie etwa Überlastoder Fehlersituationen, reagieren. Deshalb setzen wir zusätzlich eine auf Fuzzy-Logik basierende Kontrollkomponente ein, die zur Laufzeit dynamisch Anpassungen der Dienstallokation vornimmt. Beispielsweise werden abgestürzte Dienste neu gestartet und Überlastsituationen durch Hinzunahme weiterer Instanzen oder den Umzug einer Instanz auf einen leistungsfähigeren Rechner behoben. Die vorgestellten Technologien stellen damit einen ersten Schritt in Richtung eines durchgängigen Quality of Service-Managements (QoS-Management) in einer derartigen Infrastruktur dar. AutoGlobe ist die prototypische Umsetzung der in diesem Beitrag beschriebenen Konzepte für eine adaptive Infrastruktur, die sich durch Selbstkonfiguration, Selbstoptimierung und eigenständige Fehlerbehebung auszeichnet.
- KonferenzbeitragAutonomes Index Tuning – DBMS-integrierte Verwaltung von Soft Indexen(Datenbanksysteme in Business, Technologie und Web (BTW 2007) – 12. Fachtagung des GI-Fachbereichs "Datenbanken und Informationssysteme" (DBIS), 2007) Lühring, Martin; Sattler, Kai-Uwe; Schallehn, Eike; Schmidt, KarstenDas Self Management in DBMS, und das Self Tuning als wichtiger Teil davon, gewinnt auf Grund der wachsenden Komplexität von Systemen und Anwen- dungen und den daraus resultierenden steigenden Betriebskosten zunehmend an Beachtung. Der Stand der Technik bezüglich des Index Tunings sind Administrations-Tools, die aus einem gegebenen Workload eine empfohlene Indexkonfiguration ableiten. Diese muss jedoch bei Änderungen des Systems, dessen Umgebung oder der Zugriffsmuster wiederholt angepasst werden. Wir stellen in diesem Beitrag einen dynamischen Ansatz zum Index Tuning vor, der zur Laufzeit das Systemverhalten und die -nutzung überwacht, Entscheidungen bezüglich möglicher Verbesserungen der aktuellen Indexkonfiguration trifft und diese integriert mit der Anfrageverarbeitung umsetzt. Für den zuletzt genannten Aspekt führen wir mit IndexBuildScan und SwitchPlan neue Operatoren zur Erzeugung von Indexen während der Bearbeitung einer Anfrage sowie deren sofortiger Nutzung ein. Die Beschreibung der Implementierung der vorgestellten Konzepte als Erweiterung des PostgreSQL-Systems, sowie eine Evaluierung an Hand eines von TPC-H abgeleiteten Benchmarks beschließen den Beitrag.
- ZeitschriftenartikelBasiskonzepte objektorientierter Datenbanksysteme(Informatik Spektrum: Vol. 16, No. 2, 1993) Kemper, Alfons; Moerkotte, Guido
- KonferenzbeitragBenchmarking hybrid OLTP&OLAP database systems(Datenbanksysteme für Business, Technologie und Web (BTW), 2011) Funke, Florian; Kemper, Alfons; Neumann, ThomasRecently, the case has been made for operational or real-time Business Intelligence (BI). As the traditional separation into OLTP database and OLAP data warehouse obviously incurs severe latency disadvantages for operational BI, hybrid OLTP&OLAP database systems are being developed. The advent of the first generation of such hybrid OLTP&OLAP database systems requires means to characterize their performance. While there are standardized and widely used benchmarks addressing either OLTP or OLAP workloads, the lack of a hybrid benchmark led us to the definition of a new mixed workload benchmark, called TPC-CH. This benchmark bridges the gap between the existing single-workload suits: TPC-C for OLTP and TPC-H for OLAP. The newly proposed TPC-CH benchmark executes a mixed workload: A transactional workload based on the order entry processing of TPC-C and a corresponding TPC-H-equivalent OLAP query suite on this sales data base. As it is derived from these two most widely used TPC benchmarks our new TPC-CH benchmark produces results that are highly comparable to both, hybrid systems and classic single-workload systems. Thus, we are able to compare the performance of our own (and other) hybrid database system running both OLTP and OLAP workloads in parallel with the OLTP performance of dedicated transactional systems (e.g., VoltDB) and the OLAP performance of specialized OLAP databases (e.g., column stores such as MonetDB).
- ZeitschriftenartikelBericht vom Herbsttreffen der GI-Fachgruppe Datenbanksysteme(Datenbank-Spektrum: Vol. 13, No. 1, 2013) Kemper, Alfons; Mühlbauer, Tobias; Neumann, Thomas; Reiser, Angelika; Rödiger, Wolf