Auflistung nach Autor:in "Koch, Christoph"
1 - 3 von 3
Treffer pro Seite
Sortieroptionen
- ZeitschriftenartikelMöglichkeiten und Konzepte zur XML-Schemavalidierung am Beispiel von DB2 for z/OS V9.1(Datenbank-Spektrum: Vol. 13, No. 3, 2013) Koch, ChristophDas von IBM entwickelte relationale Datenbankmanagementsystem (DBMS) DB2 for z/OS V9.1 ermöglicht durch die Implementierung der pureXML-Technologie (IBM Corporation 2012) die native Speicherung und Verarbeitung von „Extensible Markup Language (XML)“-Daten. Hierzu zählen auch Mechanismen zum Umgang mit XML-Schemas – dem de facto Standardinstrument zur Datenmodellierung und Integritätssicherung im XML-Kontext. Der vorliegende Beitrag reflektiert in Anlehnung an (Koch 2012) die DB2-Funktionalitäten zur XML-Schemavalidierung anhand eines zuvor erarbeiteten Anforderungsprofils. Darauf aufbauend werden Konzepte zur XML-Schemavalidierung – die nachträgliche und die automatische Schemavalidierung – vorgestellt, durch deren Implementierung sich die DB2-Funktionalitäten gemäß der Anforderungen gezielt ergänzen lassen. Abschließend werden die Ausführungen dieses Beitrags in Bezug zur Fragestellung, inwieweit der Einsatz von datenbankseitiger XML-Schemavalidierung bereits mit DB2 for z/OS V9.1 sinnvoll ist, zusammengefasst.
- ZeitschriftenartikelMoSt – Modellbasierte Generierung synthetischer Datenbankstatistiken(Datenbank-Spektrum: Vol. 16, No. 1, 2016) Koch, ChristophIm Zeitalter von Cloud, Mobility und BigData sehen sich moderne (Datenbank-)Anwendungen mit immer höheren Anforderungen konfrontiert. Dabei reicht das Spektrum von funktionalen Aspekten bis hin zu nicht-funktionalen Anforderungen, zu denen vor allem eine hohe Performance zählt. Kontinuierliche Qualitätssicherungsmaßnahmen zur Einhaltung dieser Anforderungen sind unabdingbar und ein zentraler Bestandteil agiler Software- und Datenbankentwicklung. Dazu zählen auch zur Ausführungsplan-Analyse von SQL-Statements etablierte Explain-Mechanismen relationaler Datenbankmanagementsysteme. Diese können anhand von Statistiken zu den datenbankseitig gespeicherten Daten Abschätzungen und Vorhersagen zur erwarteten Performance bei der Abarbeitung von SQL-Statements geben.Speziell für neue Datenbankanwendungen bzw. Anwendungsmodule ohne vorhandene repräsentative Datenbestände existieren damit standardmäßig keine Statistiken. Der vorliegende Beitrag adressiert dieses Problem und stellt einen Ansatz vor, um auch ohne aufwändige Datengenerierung trotzdem die Explain-Mechanismen zur Qualitätssicherung nutzen zu können. Dabei werden die benötigten Statistiken auf Basis von strukturiert im Datenmodell erfassten Performance-Indikatoren künstlich erzeugt. Durch erste Untersuchungen am praktischen Beispiel konnte die Tragfähigkeit dieses Ansatzes bereits bestätigt werden.
- ZeitschriftenartikelThe Collaborative Research Center FONDA(Datenbank-Spektrum: Vol. 21, No. 3, 2021) Leser, Ulf; Hilbrich, Marcus; Draxl, Claudia; Eisert, Peter; Grunske, Lars; Hostert, Patrick; Kainmüller, Dagmar; Kao, Odej; Kehr, Birte; Kehrer, Timo; Koch, Christoph; Markl, Volker; Meyerhenke, Henning; Rabl, Tilmann; Reinefeld, Alexander; Reinert, Knut; Ritter, Kerstin; Scheuermann, Björn; Schintke, Florian; Schweikardt, Nicole; Weidlich, MatthiasToday’s scientific data analysis very often requires complex Data Analysis Workflows (DAWs) executed over distributed computational infrastructures, e.g., clusters. Much research effort is devoted to the tuning and performance optimization of specific workflows for specific clusters. However, an arguably even more important problem for accelerating research is the reduction of development, adaptation, and maintenance times of DAWs. We describe the design and setup of the Collaborative Research Center (CRC) 1404 “FONDA -– Foundations of Workflows for Large-Scale Scientific Data Analysis”, in which roughly 50 researchers jointly investigate new technologies, algorithms, and models to increase the portability, adaptability, and dependability of DAWs executed over distributed infrastructures. We describe the motivation behind our project, explain its underlying core concepts, introduce FONDA’s internal structure, and sketch our vision for the future of workflow-based scientific data analysis. We also describe some lessons learned during the “making of” a CRC in Computer Science with strong interdisciplinary components, with the aim to foster similar endeavors.