Auflistung nach Autor:in "Wingerath, Wolfram"
1 - 10 von 98
Treffer pro Seite
Sortieroptionen
- KonferenzbeitragAdmission Control für kontinuierliche Anfragen(Datenbanksysteme für Business, Technologie und Web (BTW 2015), 2015) Michelsen, Timo; Grawunder, Marco; Ludmann, Cornelius; Appelrath, H.-JürgenÜberlast bedeutet, dass an ein System mehr Anforderungen gestellt werden, als es erfüllen kann. Im schlechtesten Fall ist es nicht mehr ansprechbar oder stürzt ab. Für Datenbankmanagementsysteme (DBMS) existiert eine spezielle Komponente, Admission Control (AC) genannt, welche die Systemlast überwacht, eintreffende Anfragen vor deren Ausführung überprüft und ggfs. zurückstellt. Für kontinuierliche Anfragen, welche permanent ausgeführt werden, reicht diese Art von AC jedoch nicht aus: Es kann zur Konfliktlösung nicht mehr auf die Terminierung einer Anfrage gewartet werden. Zudem ist die Verarbeitung datengetrieben, d. h. Umfang und Inhalt der Daten können stark variieren. Diese Arbeit stellt ein Konzept vor, wie eine flexible und anpassbare AC-Komponente für kontinuierliche Anfragen auf Basis eines Event-Condition-Action-Modells (ECA) umgesetzt werden kann. Zur Regeldefinition wird die einfache Sprache CADL vorgestellt, die eine hohe Flexibilität und Anpassbarkeit der kontinuierlichen AC an konkrete Systeme und Hardware erlaubt. Die Evaluation zeigt mittels Odysseus, einem Framework für Datenstrommanagementsysteme, dass das Konzept effizient funktioniert und effektiv zur Lastkontrolle und Ergreifung von Maßnahmen zur Lastreduktion eingesetzt werden kann.
- KonferenzbeitragAspekte einer automatischen Meinungsbildungsanalyse von Online-Diskussionen(Datenbanksysteme für Business, Technologie und Web (BTW 2015) - Workshopband, 2015) Liebeck, MatthiasHeutzutage haben Menschen die Möglichkeit, ihre Meinung zu verschiedensten Themen in onlinebasierten Diskussionsplattformen zu äußern. Diese Meinungen können in Form einer Meinungsbildungsanalyse genauer untersucht werden. In diesem Beitrag werden verschiedene Aspekte einer automatisierten Diskussionsverfolgung untersucht. Dazu werden Analysekriterien definiert und die vorgestellten Ansätze auf zwei deutschsprachige Datensätze angewendet.
- KonferenzbeitragAutoshard - a Java object mapper (not only) for hot spot data objects in nosql data stores(Datenbanksysteme für Business, Technologie und Web (BTW 2015), 2015) Scherzinger, Stefanie; Thor, AndreasWe demonstrate AutoShard, a ready-to-use object mapper for Java applications running against NoSQL data stores. AutoShard's unique feature is its capability to gracefully shard hot spot data objects that are suffering under concurrent writes. By sharding data on the level of the logical schema, scalability bottlenecks due to write contention can be effectively avoided. Using AutoShard, developers can easily employ sharding in their web application by adding minimally intrusive annotations to their code. Our live experiments show the significant impact of sharding on both the write throughput and the execution time.
- KonferenzbeitragAutostudio: A generic web application for transforming dataflow programs into action(Datenbanksysteme für Business, Technologie und Web (BTW 2015), 2015) Rane, Nikhil-Kishor; Saleh, OmranIn this paper, a user-friendly, interactive, and easy-to-use web-based application, is introduced. “AutoStudio” is a generic application where the users can generate dataflow programs for different dataflow languages, such as PipeFlow and Pig, using a drag and drop functionality. Using this application, the users can assemble the operators that comprise a particular program without being an expert in the target language and without his/her awareness of its operators and constructs. Therefore, the rapid development can be achieved. Our application also provides additional functionalities which makes it a “One-Stop-App” such as compiling, saving, executing, and checking the status of the generated dataflow programs.
- KonferenzbeitragBestimmung von Datenunsicherheit in einem probabilistischen Datenstrommanagementsystem(Datenbanksysteme für Business, Technologie und Web (BTW 2015) - Workshopband, 2015) Kuka, Christian; Nicklas, DanielaFür die kontinuierliche Verarbeitung von unsicherheitsbehafteten Daten in einem Datenstrommanagementsystem ist es notwendig das zugrunde liegende stochastische Modell der Daten zu kennen. Zu diesem Zweck existieren mehrere Ansätze, wie etwas das Erwartungswertmaximierungsverfahren oder die Kerndichteschätzung. In dieser Arbeit wird aufgezeigt, wie die genannten Verfahren in ein Datenstrommanagementsystem verwendet werden können, umso eine probabilistische Datenstromverarbeitung zu ermöglichen und wie sich die Bestimmung des stochastischen Modells auf die Latenz der Verarbeitung auswirkt. Zudem wird die Qualität der ermittelten stochastischen Modelle verglichen und aufgezeigt, welches Verfahren unter welchen Bedienungen bei der kontinuierlichen Verarbeitung von unsicherheitsbehafteten Daten am effektivsten ist.
- KonferenzbeitragBig Data-Zentren - Vorstellung und Panel(Datenbanksysteme für Business, Technologie und Web (BTW 2015), 2015) Markl, Volker; Rahm, Erhard; Lehner, Wolfgang; Beigl, Michael; Seidl, ThomasZur Erforschung der verschiedenen Facetten von Big Data“ wurden jüngst drei Zen- ” tren gegründet. Hierbei handelt es sich um die vom Bundesministerium für Bildung und Forschung (BMBF) geförderten Kompetenzzentren BBDC (Berlin Big Data Center, Leitung TU Berlin) und ScaDS (Competence Center for Scalable Data Services and Solutions, Leitung TU Dresden und Uni Leipzig) sowie das in Zusammenarbeit von Industrie und Forschung eingerichtete SDIL (Smart Data Innovation Lab, Leitung KIT). Diese drei Zentren werden zunächst in Kurzvorträgen vorgestellt. Eine sich anschließende Panel- Diskussion arbeitet Gemeinsamkeiten, spezifische Ansprüche und Kooperationsmöglichkeiten heraus.
- KonferenzbeitragBig data: hype and reality(Datenbanksysteme für Business, Technologie und Web (BTW 2015), 2015) Mohan, C.Big Data has become a hot topic in the last few years in both industry and the research community. For the most part, these developments were initially triggered by the requirements of Web 2.0 companies. Both technical and non-technical issues have continued to fuel the rapid pace of developments in the Big Data space. Open source and non-traditional software entities have played key roles in the latter. As it always happens with any emerging technology, there is a fair amount of hype that accompanies the work being done in the name of Big Data. The set of clear-cut distinctions that were made initially between Big Data systems and traditional database management systems are being blurred as the needs of the broader set of (real world) users and developers have come into sharper focus in the last couple of years. In this talk, I will survey the developments in Big Data and try to distill reality from the hype! 2 Biography Dr. C. Mohan has been an IBM researcher for 33 years in the information management area, impacting numerous IBM and non-IBM products, the research and academic communities, and standards, especially with his invention of the ARIES family of database locking and recovery algorithms, and the P
- KonferenzbeitragBig-Data-Anwendungsentwicklung mit SQL und NoSQL(Datenbanksysteme für Business, Technologie und Web (BTW 2015) - Workshopband, 2015) Albrecht, Jens; Störl, Uta
- ZeitschriftenartikelBTW 2015 – Jubiläum an der Waterkant(Datenbank-Spektrum: Vol. 15, No. 2, 2015) Wingerath, Wolfram; Friedrich, Steffen; Ritter, Norbert
- KonferenzbeitragThe cache sketch: revisiting expiration-based caching in the age of cloud data management(Datenbanksysteme für Business, Technologie und Web (BTW 2015), 2015) Gessert, Felix; Schaarschmidt, Michael; Wingerath, Wolfram; Friedrich, Steffen; Ritter, NorbertThe expiration-based caching model of the web is generally considered irreconcilable with the dynamic workloads of cloud database services, where expiration dates are not known in advance. In this paper, we present the Cache Sketch data structure which makes expiration-based caching of database records feasible with rich tunable consistency guarantees. The Cache Sketch enables database services to leverage the large existing caching infrastructure of content delivery networks, browser caches and web caches to provide low latency and high scalability. The Cache Sketch employs Bloom filters to create compact representations of potentially stale records to transfer the task of cache coherence to clients. Furthermore, it also minimizes the number of invalidations the service has to perform on caches that support them (e.g., CDNs). With different age-control policies the Cache Sketch achieves very high cache hit ratios with arbitrarily low stale read probabilities. We present the Constrained Adaptive TTL Es- timator to provide cache expiration dates that optimize the performance of the Cache Sketch and invalidations. To quantify the performance gains and to derive workloadoptimal Cache Sketch parameters, we introduce the YCSB Monte-Carlo Caching Simulator (YMCA), a generic framework for simulating the performance and consistency characteristics of any caching and replication topology. We also provide empirical evidence for the efficiency of the Cache Sketch construction and the real-world latency reductions of database workloads under CDN-caching.