Auflistung nach Autor:in "Golombek, Mathias"
1 - 2 von 2
Treffer pro Seite
Sortieroptionen
- KonferenzbeitragAdvanced Analytics mit der analytischen In-Memory Datenbank EXASolution(INFORMATIK 2013 – Informatik angepasst an Mensch, Organisation und Umwelt, 2013) Klenk, Sebastian; Mandl, Stefan; Zentgraf, Simon; Golombek, MathiasAufgrund der kontinuierlich steigenden Datenmengen müssen immer aufwendigere Berechnungen in der Datenbank durchgeführt werden. Dies wird umso wichtiger je größer die Datenmengen werden und je spezieller die Berechnungen sind. Gerade im Umfeld von Big Data und In-Memory sind komplexe statistische Berechnungen auf Datenvolumina, die gängige Hauptspeicherumfänge bei weitem übersteigen, an der Tagesordnung. EXASOL hat mit seiner Advanced-Analytics-Umgebung EXAPowerlytics ein Werkzeug geschaffen, das es erlaubt, komplexe Berechnungen in der Datenbank durchzuführen. Dabei vereint EXAPowerlytics die Vorteile einer modernen In- Memory Datenbank mit denen gängiger Programmierumgebungen: (1) Es ist vollständig in SQL integriert und damit standardkonform, (2) es erlaubt die Entwicklung in den unterschiedlichsten Programmiersprachen und (3) es erlaubt die schnelle und einfache Entwicklung massiv paralleler Algorithmen.
- KonferenzbeitragPanel: ,,Big Data - Evolution oder Revolution in der Datenverarbeitung?“(Datenbanksysteme für Business, Technologie und Web (BTW 2015), 2015) Böhm, Alexander; Golombek, Mathias; Heinz, Christoph; Löser, Henrik; Schlaucher, Alfred; Ruf, ThomasDas Schlagwort Big Data hat in den letzten Jahren große Popularität gewonnen. Andererseits befassen sich Datenbanksysteme seit ihrer Entstehung mit großen Datenmengen, d.h. mit der Verwaltung von Datenmengen, die hart an der Grenze des technisch Be- herrschbaren liegen. Mit der Verschiebung dieser Grenzen nach oben und der Steigerung der Anforderungen an Verarbeitungskomplexität und geschwindigkeit entstanden in der Datenbankwelt immer neue Lösungsansätze und Konzepte, wie z.B. verteilte und föderierte Datenbanksysteme, NOSQL-Systeme, Hauptspeicherdatenbanksysteme, aktive Datenbanksysteme und Datenstromanalysesysteme usw. Ist die neue Aufmerksamkeit für das Thema Big Data also tatsächlich durch neue Aspekte gerechtfertigt, oder bekommt ein lange schon adressiertes Thema endlich die notwendige Aufmerksamkeit? Sind die vielbeschworenen 3-.5 V“ (volume, variety, velocity, ggf. auch veracity und value) ” tatsächlich revolutionär neue Gesichtspunkte? Muss man sich je nach Art der Daten (strukturiert, semistrukturiert, unstrukturiert) für andere Systeme entscheiden, oder gibt es für Big Data eine Gesamtlösung statt eines Zwangs zum entweder - oder“ bei der Wahl ” zwischen NOSQL, relationalem Datenbanksystem, Event Processing, usw.? Diese Fragen werden im Panel adressiert werden; Vertreter verschiedener kommerzieller Anbieter stellen sich der Diskussion.