Auflistung nach Autor:in "Grawunder, Marco"
1 - 10 von 15
Treffer pro Seite
Sortieroptionen
- KonferenzbeitragAdmission Control für kontinuierliche Anfragen(Datenbanksysteme für Business, Technologie und Web (BTW 2015), 2015) Michelsen, Timo; Grawunder, Marco; Ludmann, Cornelius; Appelrath, H.-JürgenÜberlast bedeutet, dass an ein System mehr Anforderungen gestellt werden, als es erfüllen kann. Im schlechtesten Fall ist es nicht mehr ansprechbar oder stürzt ab. Für Datenbankmanagementsysteme (DBMS) existiert eine spezielle Komponente, Admission Control (AC) genannt, welche die Systemlast überwacht, eintreffende Anfragen vor deren Ausführung überprüft und ggfs. zurückstellt. Für kontinuierliche Anfragen, welche permanent ausgeführt werden, reicht diese Art von AC jedoch nicht aus: Es kann zur Konfliktlösung nicht mehr auf die Terminierung einer Anfrage gewartet werden. Zudem ist die Verarbeitung datengetrieben, d. h. Umfang und Inhalt der Daten können stark variieren. Diese Arbeit stellt ein Konzept vor, wie eine flexible und anpassbare AC-Komponente für kontinuierliche Anfragen auf Basis eines Event-Condition-Action-Modells (ECA) umgesetzt werden kann. Zur Regeldefinition wird die einfache Sprache CADL vorgestellt, die eine hohe Flexibilität und Anpassbarkeit der kontinuierlichen AC an konkrete Systeme und Hardware erlaubt. Die Evaluation zeigt mittels Odysseus, einem Framework für Datenstrommanagementsysteme, dass das Konzept effizient funktioniert und effektiv zur Lastkontrolle und Ergreifung von Maßnahmen zur Lastreduktion eingesetzt werden kann.
- ZeitschriftenartikelEine Anwendung von Knowledge Discovery in Databases im eLearning (An Application of Knowledge Discovery in Databases in eLearning)(i-com: Vol. 2, No. 2, 2003) Köster, Frank; Grawunder, MarcoDieser Artikel behandelt die Entwicklung eines Assistenzsystems für Nutzer elektronischer Lehr-/Lernmaterialien (eLLM). Dabei wird das simulatorbasierte Pilotentraining als konkrete Beispielanwendung betrachtet. In diesem Kontext wird insbesondere die mögliche Isolation von Nutzern eLLM als Problem hervorgehoben. Arbeiten zu Tutoriellen Systemen, Virtuellen Lerngemeinschaften, Lernarrangements o.Ä. diskutieren ein facettenreiches Instrumentarium zur Behandlung dieses Problems und prägen eben-so unseren Ansatz. Dieser zielt darauf ab, eine tutorielle Unterstützung sowie Aufgaben zur Bildung/Festigung virtueller Lerngemeinschaften an spezielle Softwarekomponenten (Agenten) zu delegieren, die den Nutzern uneingeschränkt als Assistenten zur Verfügung stehen. Bei der Implementierung der Verhaltensgrundlage dieser Agenten verfolgen wir einen datengetriebenen Zugang, wobei Methoden des Knowledge Discovery in Databases (KDD) zur Anwendung kommen. Die in diesem Zusammenhang erzielten Ergebnisse ste...
- KonferenzbeitragData streams and event processing (DSEP)(Datenbanksysteme für Business, Technologie und Web (BTW 2015) - Workshopband, 2015) Grawunder, Marco; Nicklas, Daniela
- ZeitschriftenartikelDie Abteilung Informationssysteme der Universität Oldenburg(Datenbank-Spektrum: Vol. 14, No. 3, 2014) Appelrath, H.-Jürgen; Grawunder, Marco
- KonferenzbeitragDSEP - call for papers(Datenbanksysteme für Business, Technologie und Web (BTW) 2013 - Workshopband, 2013) Fischer, Peter M.; Grawunder, Marco; Nicklas, Daniela; Seeger, Bernhard
- KonferenzbeitragDYNAQUEST als Basis zur dynamischen Informationsfusion(Informatik 2004 – Informatik verbindet – Band 1, Beiträge der 34. Jahrestagung der Gesellschaft für Informatik e.V. (GI), 2004) Grawunder, Marco; Köster, Frank; Appelrath, Hans-JürgenKlassische Ansätze der Datenintegration lassen sich im Kontext dynamischer Informationsfusion mit einer hohen Anzahl verf ügbarer Quellen nicht problemlos einsetzen. Es müssen zunächst potentiell relevante Quellen identifiziert, hieraus zur Anfrageausführungszeit eine Auswahl getroffen und diese ad-hoc integriert werden. Dabei ist der Quellenauswahlprozess von den jeweils verfolgten Anwendungszielen abhängig, da u.U. unterschiedliche Anforderungen bzgl. verschiedener Aspekte der Datenqualität erfüllt werden müssen. Zur Wahl und Integration von Quellen sind zunächst geeignete Quellenbeschreibungen notwendig. Dabei ist es w ünschenswert, Beschreibungen automatisiert ableiten zu können, wobei insbesondere die inhaltliche Distanz zwischen Beschreibung und den tatsächlichen Gegebenheiten der Quelle m öglichst gering sein muss. Da dies nicht immer garantiert werden kann, ist es notwendig, die Ausf ührung einer Anfrage zu überwachen und im Bedarfsfall einzuschreiten. Ein solches Monitoring ist dar über hinaus auch deshalb wichtig, da die Umgebung der Quellen u.U. eine hohe Dynamik aufweist und die Quellen selbst eine hohe Autonomie besitzen, sodass Quellenverhalten i.d.R. nicht zweifelsfrei prognostizierbar ist. In diesem Artikel wird der DYNAQUEST-Ansatz vorgestellt, worin die Quellenbeschreibung sowie Quellenauswahl, -beobachtung und Recovery-Mechanismen als Grundlage einer Anfrageverarbeitung untersucht werden. DYNAQUEST stellt damit einen wichtigen Baustein zur dynamischen Informationsfusion dar.
- KonferenzbeitragKontinuierliche Evaluation von kollaborativen Recommender-Systeme in Datenstrommanagementsystemen(Datenbanksysteme für Business, Technologie und Web (BTW 2015) - Workshopband, 2015) Ludmann, Cornelius A.; Grawunder, Marco; Michelsen, Timo; Appelrath, H.-Jürgen
- KonferenzbeitragKoordinierte zyklische Kontext-Aktualisierungen in Datenströmen(Datenbanksysteme für Business, Technologie und Web (BTW), 2011) Geesen, Dennis; Bolles, André; Grawunder, Marco; Jacobi, Jonas; Nicklas, Daniela; Appelrath H., JürgenKontextsensitive Anwendungen benötigen ein möglichst exaktes Modell der Umgebung. Zur Ermittlung und regelmäßigen Aktualisierung dieses Kontextmodells werden typischerweise Sensordaten verwendet. Datenstrommanagementsysteme (DSMS) bilden die ideale Basis, um mit den durch die Sensoren generierten, potentiell unendlichen Datenströmen umzugehen. Leider bieten bisherige DSMS keine native Unterstützung für dynamische Kontextmodelle. Insbesondere die bei der Aktualisierung entstehenden Zyklen im Anfrageplan bedürfen einer besonderen Koordination, um Aktualität und Konsistenz des Kontextmodells zu gewährleisten. Diese Arbeit präsentiert eine Lösung, die einen Broker zur Koordination der verschiedenen Zugriffe auf das Kontextmodell als neuen Operator im DSMS einführt. Wir zeigen dazu eine semantische Beschreibung und eine abstrakte Implementierung des Brokers.
- KonferenzbeitragLernen häufiger Muster aus intervallbasierten Datenströmen - Semantik und Optimierungen(Datenbanksysteme für Business, Technologie und Web (BTW) 2031, 2013) Geesen, Dennis; Appelrath, H. -Jürgen; Grawunder, Marco; Nicklas, DanielaDas Erkennen und Lernen von Mustern über Ereignisdatenströmen ist eine wesentliche Voraussetzung für effektive kontextbewusste Anwendungen, wie sie bspw. in intelligenten Wohnungen (Smart Homes) vorkommen. Zur Erkennung dieser Muster werden i.d.R. Verfahren aus dem Bereich des Frequent Pattern Mining (FPM) eingesetzt. Das Erlernen relevanter Muster findet aktuell entweder auf aufgezeichneten Ereignisströmen statt oder wird online mit Hilfe spezieller, an die Be- sonderheiten der Stromverarbeitung angepasste FPM-Algorithmen durchgeführt. Auf diese Weise muss entweder auf die Onlineverarbeitung verzichtet oder existierende und bewährte effiziente FPM-Algorithmen können nicht eingesetzt werden. In diesem Beitrag stellen wir einen Ansatz vor, der es ermöglicht, beliebige Datenbank-basierte FPM-Algorithmen ohne Anpassung auch auf Datenströmen durchzuführen. Da unsere Semantik auf der bekannten relationalen Algebra basiert, können weitere Optimierungen bspw. durch Anfrageumschreibungen erfolgen. Wir evaluieren den Ansatz im Datenstrom-Framework Odysseus und zeigen, dass bspw. beim Einsatz des FPM- Algorithmus „FP-Growth“ das Lernen in konstanter Zeit erfolgen kann und somit ein kontinuierliches Lernen auf dem Datenstrom möglich ist.
- KonferenzbeitragA Modular Approach for Non-Distributed Crash Recovery for Streaming Systems(Datenbanksysteme für Business, Technologie und Web (BTW 2017), 2017) Brand, Michael; Grawunder, Marco; Appelrath, H.-JürgenHigh availability and reliability are important aspects for streaming systems. State-of-the-art recovery techniques like active or passive standby use several nodes to fulfill these requirements. But not every processing task is done in a professional environment with resources for a distributed system (e.g. smart home). Additionally, even distributed streaming systems can benefit from reliable non-distributed crash recovery (NDCR) because it can help to restore the overall system state faster not only after a node failure but also after the roll-out of updates. In this paper, we present our research on NDCR for streaming systems and point out its possibilities and limitations. We propose a flexible and extensible framework in which small NDCR tasks can be combined to high-level NDCR classes with different degrees of fulfillment for completeness and correctness: at-most-once, at-least-once or exactly-once. Further, we offer a way to mark elements that may be incorrect or duplicated.