Auflistung nach Autor:in "Lausen, Georg"
1 - 3 von 3
Treffer pro Seite
Sortieroptionen
- KonferenzbeitragCatalog integration made easy(BTW 2003 – Datenbanksysteme für Business, Technologie und Web, Tagungsband der 10. BTW Konferenz, 2003) Marrón, Pedro José; Lausen, Georg; Weber, MartinIn this paper, we study adaptive evaluation techniques for querying XML-based electronic catalogs, and show, by means of experiments performed on real-world catalogs, that our approach can be used to integrate them with virtually zero effort at start-up time, and a small constant factor needed to perform the adaptive evaluation for all subsequent queries. We reach the conclusion that, from a strictly technical perspective, the classic role of the global catalog can be assumed in an ad-hoc manner by any catalog that forms part of a collaborative federation of XML-based catalogs, and implements our adaptive query algorithms, independently of the storage model used to access its contents.
- KonferenzbeitragKnowledge Graph Processing Made (more) Simple(40 Years EMISA 2019, 2020) Lausen, GeorgKnowledge graphs based on RDF and SPARQL are gaining popularity for integrated semantic representation of structured and unstructured data. As knowledge graphs in practical applications tend to become huge, distributed processing using Apache Spark SQL and Hadoop on top of a compute cluster is attractive. For the corresponding relational representation of a knowledge graph, a simple relational design using only one single table is proposed. Consequently no time consuming relational design considerations are required and newly discovered RDF data can be integrated with nearly no extra additional relational design effort.
- KonferenzbeitragPigSPARQL: Übersetzung von SPARQL nach Pig Latin(Datenbanksysteme für Business, Technologie und Web (BTW), 2011) Schätzle, Alexander; Przyjaciel-Zablocki, Martin; Hornung, Thomas; Lausen, GeorgDieser Beitrag untersucht die effiziente Auswertung von SPARQL- Anfragen auf großen RDF-Datensätzen. Zum Einsatz kommt hierfür das Apache Hadoop Framework, eine bekannte Open-Source Implementierung von Google's MapReduce, das massiv parallelisierte Berechnungen auf einem verteilten System ermöglicht. Zur Auswertung von SPARQL-Anfragen mit Hadoop wird in diesem Beitrag PigSPARQL, eine Übersetzung von SPARQL nach Pig Latin, vorgestellt. Pig Latin ist eine von Yahoo! Research entworfene Sprache zur verteilten Analyse von großen Datensätzen. Pig, die Implementierung von Pig Latin für Hadoop, übersetzt ein Pig Latin-Programm in eine Folge von MapReduce-Jobs, die anschließend auf einem Hadoop-Cluster ausgeführt werden. Die Evaluation von PigSPARQL anhand eines SPARQL spezifischen Benchmarks zeigt, dass der gewählte Ansatz eine effiziente Auswertung von SPARQL-Anfragen mit Hadoop ermöglicht.