P242 - BTW2015 - Datenbanksysteme für Business, Technologie und Web - Workshopband
Auflistung P242 - BTW2015 - Datenbanksysteme für Business, Technologie und Web - Workshopband nach Erscheinungsdatum
1 - 10 von 36
Treffer pro Seite
Sortieroptionen
- KonferenzbeitragExtracting reproducible simulation studies from model repositories using the combinearchive toolkit(Datenbanksysteme für Business, Technologie und Web (BTW 2015) - Workshopband, 2015) Scharm, Martin; Waltemath, DagmarThe COMBINE archive is a digital container format for files related to a virtual experiment in computational biology. It eases the management of numerous files related to a simulation study, fosters collaboration, and ultimately enables the exchange of reproducible research results. The CombineArchive Toolkit is a software for creating, exploring, modifying, and sharing COMBINE archives. Open model repositories such as BioModels Database are a valuable resource of models and associated simulation descriptions. However, so far no tool exists to export COMBINE archives for a given simulation study from such databases. Here we demonstrate how the CombineArchive Toolkit can be used to extract reproducible simulation studies from model repositories. We use the example of Masymos, a graph database with a sophisticated link concept to connect model-related files on the storage layer.
- KonferenzbeitragStreaming analysis of information diffusion(Datenbanksysteme für Business, Technologie und Web (BTW 2015) - Workshopband, 2015) Fischer, Peter M.; Taxidou, Io
- KonferenzbeitragHerakles: A system for sensor-based live sport analysis using private peer-to-peer networks(Datenbanksysteme für Business, Technologie und Web (BTW 2015) - Workshopband, 2015) Brand, Michael; Brandt, Tobias; Cordes, Carsten; Wilken, Marc; Michelsen, TimoTactical decisions characterize team sports like soccer or basketball profoundly. Analyses of training sessions and matches (e.g., mileage or pass completion rate of a player) form more and more a crucial base for those tactical decisions. Most of the analyses are video-based, resulting in high operating expenses. Additionally, a highly specialized system with a huge amount of system resources like processors and memory is needed. Typically, analysts present the results of the video data in time-outs (e.g., in the half-time break of a soccer match). Therefore, coaches are not able to view statistics during the match. In this paper we propose the concepts and current state of Herakles, a system for live sport analysis which uses streaming sensor data and a Peer-to-Peer network of conventional and low-cost private machines. Since sensor data is typically of high volume and velocity, we use a distributed data stream management system (DSMS). The results of the data stream processing are intended for coaches. Therefore, the front-end of Herakles is an application for mobile devices (like smartphones or tablets). Each device is connected with the distributed DSMS, retrieves updates of the results and presents them in real-time. Therefore, Herakles enables the coach to analyze his team during the match and to react immediately with tactical decisions.
- KonferenzbeitragSkalierbare NoSQL- und Cloud-Datenbanken in Forschung und Praxis(Datenbanksysteme für Business, Technologie und Web (BTW 2015) - Workshopband, 2015) Gessert, Felix; Ritter, NorbertDie rasante Entwicklung nicht-relationaler, verteilter NoSQL Datenbanksysteme hat in den letzten Jahren einen beispiellosen Aufschwung erlebt. Zwei zentrale Probleme haben diesen Prozess angestoßen: die gewaltigen Mengen von User- ” generated-Content“ in modernen Anwendungen und die damit einhergehenden An- fragelasten und Datenvolumnia, sowie der Ruf von Entwicklern nach problemspezifischen Datenmodellen und Schemaflexibilität. Das Tutorium Skalierbare NoSQL- und ” Cloud-Datenbanken in Forschung und Praxis“ bietet einen umfassenden Überblick über die Konzepte und Techniken der relevantesten NoSQL- und Cloud-Datenbanken, mit einem besonderen Fokus auf Trade-Offs im Bereich Skalierbarkeit, Konsistenz und Anfragemächtigkeit. Es werden sowohl zugrundeliegende theoretische Konzepte, bahnbrechende wissenschaftliche Beiträge, als auch praktische Aspekte wie APIs, Lizenzund Pricingmodelle sowie Architekturen diskutiert.
- KonferenzbeitragSampling with incremental mapreduce(Datenbanksysteme für Business, Technologie und Web (BTW 2015) - Workshopband, 2015) Schäfer, Marc; Schildgen, Johannes; Deßloch, StefanThe goal of this paper is to increase the computation speed of MapReduce jobs by reducing the accuracy of the result. Often, the timely processing is more important than the precision of the result. Hadoop has no built-in functionality for such an approximation technique, so the user has to implement sampling techniques manually. We introduce an automatic system for computing arithmetic approximations. The sampling is based on techniques from statistics and the extrapolation is done generically. This system is also extended by an incremental component which enables the reuse of already computed results to enlarge the sampling size. This can be used iteratively to further increase the sampling size and also the precision of the approximation. We present a transparent incremental sampling approach, so the developed components can be integrated in the Hadoop framework in a non-invasive manner.
- KonferenzbeitragMany-Core-Architekturen zur Datenbankbeschleunigung(Datenbanksysteme für Business, Technologie und Web (BTW 2015) - Workshopband, 2015) Sattler, Kai-Uwe; Teubner, Jens; Beier, Felix; Breß, Sebastian
- KonferenzbeitragDistance-based Multimedia Indexing(Datenbanksysteme für Business, Technologie und Web (BTW 2015) - Workshopband, 2015) Beecks, Christian; Uysal, Merih; Seidl, ThomasThis tutorial aims at providing a unified and comprehensive overview of the state-of-the-art approaches to distance-based multimedia indexing.
- KonferenzbeitragOn performance optimization potentials regarding data classification in forensics(Datenbanksysteme für Business, Technologie und Web (BTW 2015) - Workshopband, 2015) Köppen, Veit; Hildebrandt, Mario; Schäler, MartinClassification of given data sets according to a training set is one of the essentials bread and butter tools in machine learning. There are several application scenarios, reaching from the detection of spam and non-spam mails to recognition of malicious behavior, or other forensic use cases. To this end, there are several approaches that can be used to train such classifiers. Often, scientists use machine learning suites, such as WEKA, ELKI, or RapidMiner in order to try different classifiers that deliver best results. The basic purpose of these suites is their easy application and extension with new approaches. This, however, results in the property that the implementation of the classifier is and cannot be optimized with respect to response time. This is due to the different focus of these suites. However, we argue that especially in basic research, systematic testing of different promising approaches is the default approach. Thus, optimization for response time should be taken into consideration as well, especially for large scale data sets as they are common for forensic use cases. To this end, we discuss in this paper, in how far well-known approaches from databases can be applied
- KonferenzbeitragKonzept und prototypische Implementierung eines föderativen Complex Event Processing Systeme mit Operatorverteilung(Datenbanksysteme für Business, Technologie und Web (BTW 2015) - Workshopband, 2015) Pinnecke, MarcusComplex Event Processing (CEP) ist eine etablierte Technologie zur Verarbeitung von Ereignisströmen in nahezu Echtzeit. Trotz alledem unterscheiden bestehende CEP-Systeme sich stark in ihren jeweiligen Leistungsumfängen und -profilen. Werden verschiedene CEP-Systeme in einem föderativen System kombiniert, so kann das resultierende System im Vergleich zu den Einzelsystemen eine höhere Datendurchsatzrate und einen breiteren Leistungsumfang erreichen. Fehlende Standardisierung und inkompatible Schnittstellen der CEP-Systeme behindern diesen Ansatz jedoch. Dieser Missstand wird durch die Middleware Java Event Processing Connectivity (JEPC) behoben. Gegenstand dieser Arbeit ist das auf JEPC basierendes föderatives CEP-System so zu erweitern, dass eine Verteilung von Anfrageoperatoren auf die beteiligten Systeme automatisch durchführt wird. Hierfür wird in dieser Arbeit das zugrundeliegende Konzept, eine Anfrageoptimierung sowie ein Kostenmodell für die Auswahl eines konkreten Systems vorgestellt. In einer Evaluation wird gezeigt, dass durch den Einsatz einer Föderation die Datendurchsatzrate deutlich steigt, insbesondere wenn es sich um eine heterogene Föderation mit unterschiedlichen Leistungsprofilen handelt.
- KonferenzbeitragMETIS in PArADISE Provenance Management bei der Auswertung von Sensordatenmengen für die Entwicklung von Assistenzsystemen(Datenbanksysteme für Business, Technologie und Web (BTW 2015) - Workshopband, 2015) Heuer, Andreas