Auflistung nach Autor:in "Hirmer, Pascal"
1 - 3 von 3
Treffer pro Seite
Sortieroptionen
- KonferenzbeitragAutomatic topology completion of TOSCA-based cloud applications(Informatik 2014, 2014) Hirmer, Pascal; Breitenbücher, Uwe; Binz, Tobias; Leymann, FrankAutomation of application provisioning is one of the key aspects of Cloud Computing. Standards such as the Topology and Orchestration Specification for Cloud Applications (TOSCA) provide a means to model application topologies which can be provisioned fully automatically. Many automated provisioning engines require that these topologies are complete in the sense of specifying all application, platform, and infrastructure components. However, modeling complete models is a complex, timeconsuming, and error-prone task that typically requires a lot of technical expertise. In this paper, we present an approach that enables users to model incomplete TOSCA application topologies that are completed automatically to deployable, complete models. This enables users to focus on the business-relevant application components and simplifies the creation process tremendously by minimizing the required effort and know-how. We prove the technical feasibility of the presented approach by a prototypical implementation based on the open source modeling tool Winery. In addition, we evaluate the approach by standards-compliance and performance.
- KonferenzbeitragEffizienz-Optimierung daten-intensiver Data Mashups am Beispiel von Map-Reduce(Datenbanksysteme für Business, Technologie und Web (BTW 2017) - Workshopband, 2017) Hirmer, PascalData Mashup-Ansätze und -Tools bieten einen einfachen und schnellen Weg, um Daten zu verarbeiten und zu analysieren. Über eine grafische Oberfläche können dabei – in der Regel grafisch – Datenquellen und Datenoperationen sowie der Datenfluss einfach modelliert werden. Hierdurch ergeben sich vor allem Vorteile durch einfache Bedienbarkeit durch Domänennutzer sowie einer explorativen Vorgehensweise. Jedoch legen vorhandene Data Mashup-Ansätze und -Tools wenig Wert auf die Effizienz der Ausführung, was dadurch begründet wird, dass durch Data Mashups in der Regel kleine Datenmengen verarbeitet werden. Zu Zeiten von Big Data gilt dies jedoch nicht mehr; schon scheinbar kleine Szenarien enthalten oftmals eine Vielzahl an Daten. Um mit diesem Problem zukünftig umzugehen, stellen wir in diesem Paper eine Konzeptidee am Beispiel von Map-Reduce vor, mit der die Ausführung von Data Mashups bzgl. Effizienz optimiert werden kann.
- ZeitschriftenartikelThe First Data Science Challenge at BTW 2017(Datenbank-Spektrum: Vol. 17, No. 3, 2017) Hirmer, Pascal; Waizenegger, Tim; Falazi, Ghareeb; Abdo, Majd; Volga, Yuliya; Askinadze, Alexander; Liebeck, Matthias; Conrad, Stefan; Hildebrandt, Tobias; Indiono, Conrad; Rinderle-Ma, Stefanie; Grimmer, Martin; Kricke, Matthias; Peukert, EricThe 17th Conference on Database Systems for Business, Technology, and Web (BTW2017) of the German Informatics Society (GI) took place in March 2017 at the University of Stuttgart in Germany. A Data Science Challenge was organized for the first time at a BTW conference by the University of Stuttgart and Sponsor IBM. We challenged the participants to solve a data analysis task within one month and present their results at the BTW. In this article, we give an overview of the organizational process surrounding the Challenge, and introduce the task that the participants had to solve. In the subsequent sections, the final four competitor groups describe their approaches and results.