Auflistung Datenbank Spektrum 12(1) - März 2012 nach Titel
1 - 10 von 11
Treffer pro Seite
Sortieroptionen
- ZeitschriftenartikelAn Index-Inspired Algorithm for Anytime Classification on Evolving Data Streams(Datenbank-Spektrum: Vol. 12, No. 1, 2012) Kranen, Philipp; Assent, Ira; Seidl, ThomasDue to the ever growing presence of data streams there has been a considerable amount of research on stream data mining over the past years. Anytime algorithms are particularly well suited for stream mining, since they flexibly use all available time on streams of varying data rates, and are also shown to outperform traditional budget approaches on constant streams. In this article we present an index-inspired algorithm for Bayesian anytime classification on evolving data streams and show its performance on benchmark data sets.
- ZeitschriftenartikelDatabase as a Service(Datenbank-Spektrum: Vol. 12, No. 1, 2012) Seibold, Michael; Kemper, AlfonsHeutzutage nutzen bereits viele Unternehmen Cloud Computing für Geschäftsanwendungen wie Customer Relationship Management. Geschäftsanwendungen verwenden typischerweise relationale Datenbanksysteme für die Datenverwaltung. Daher scheint es sinnvoll zu eruieren, inwiefern Datenbanksysteme effizient als Dienst in der Cloud bereitgestellt werden können. Wir vergleichen verschiedene Dienstmodelle für Cloud-Datenbanken und kommen zu dem Schluss, dass Cloud-Datenbankdienste eine eigene Kategorie darstellen: Database as a Service. Darüber hinaus diskutieren wir architektonische Herausforderungen für einen solchen Dienst und gehen insbesondere auf effiziente Mandantenfähigkeit und Quality of Service für gemischte Arbeitslasten ein.
- ZeitschriftenartikelDissertationen(Datenbank-Spektrum: Vol. 12, No. 1, 2012)
- ZeitschriftenartikelDoppelte Virtualisierung am Beispiel einer Datenbank-Cluster-Konfiguration für den Aufbau von Testumgebungen(Datenbank-Spektrum: Vol. 12, No. 1, 2012) Bräunig, Markus; Steffan, RüdigerBei einer doppelten Virtualisierung wird eine virtuelle Maschine selbst in einer virtuellen Maschine betrieben. Dies wird zunehmend an Bedeutung gewinnen, beispielsweise im Fall von virtualisierten Betriebssystemen, die selbst Virtualisierungssoftware beinhalten. In diesem Artikel wird am Beispiel von Oracle RAC gezeigt, wie ein Datenbank-Clustersystem mit doppelter Virtualisierung, unter Verwendung von VMware ESX und Oracle VM, realisiert werden kann. Schwerpunkt dabei ist es zunächst zu erläutern, für welche Fälle und für welche Zielgruppen diese besondere Konfiguration von praktischer Bedeutung ist. Als Schwierigkeit bei der Umsetzung erwies sich vor allem die Konfiguration der Netzwerkkomponenten, welche daher ausführlicher beschrieben wird. Die erfolgreiche Inbetriebnahme des Clustersystems wird anhand einer Messung der Zeithaltung (Timekeeping) vorgestellt, die gerade bei Datenbank-Clustersystemen von besonderer Wichtigkeit ist. Darüber hinaus wird der Datenbankbetrieb anhand des Lastgenerators Swingbench simuliert. Abschließend wird die doppelte Virtualisierung mit einer sogenannten rekursiven Virtualisierung verglichen.
- ZeitschriftenartikelEditorial(Datenbank-Spektrum: Vol. 12, No. 1, 2012) Fischer, Peter M.; Nicklas, Daniela; Seeger, Bernhard
- ZeitschriftenartikelInformation Retrieval an der Universität Hildesheim: Optimierung, Evaluierung und Informationsverhalten(Datenbank-Spektrum: Vol. 12, No. 1, 2012) Mandl, ThomasDie Arbeitsgruppe Information Retrieval an der Universität Hildesheim besteht seit 1998 und wird von Frau Prof. Dr. Womser-Hacker und Prof. Dr. Thomas Mandl geleitet. Derzeit arbeiten dort sieben wissenschaftliche Mitarbeiter an Promotionen zum Information Retrieval (IR). Darüber hinaus sind am Institut für Informationswissenschaft und Sprachtechnologie (IWiST) noch zwei weitere Professoren und drei promovierte Mitarbeiter beschäftigt.Die Arbeitsgruppe von Prof. Womser-Hacker und Prof. Mandl nimmt eine ganzheitliche Perspektive auf Suchprozesse ein, wobei, neben der Technologie der Benutzer, seine Bedürfnisse und sein Informationsverhalten immer eine zentrale Rolle spielen. Dies spiegelt sich in der Einbettung in die Informationswissenschaft wider, welche schon seit langem aus einer empirischen und benutzerorientierten Sicht die Bedingungen für das Gelingen von Informationsprozessen untersucht. Daraus ergibt sich als zentrales Forschungsthema für das IR in Hildesheim die benutzerorientierte Optimierung von IR-Systemen und deren adäquate Evaluierung. Im Einzelnen arbeiten die Mitglieder der Arbeitsgruppe an Cross-Language Retrieval, mehrsprachigem Opinion Mining, Benchmark-Gestaltung, Evaluierungsmaßen und Analyse der Benutzerzufriedenheit, spezifischen Anforderungen der Fachinformation im Patentwesen und im Bildungsbereich, der Visualisierung in Benutzungsoberflächen für IR sowie in der Analyse von Informationsverhalten im Sinne der Information-Seeking-Forschung.
- ZeitschriftenartikelNews(Datenbank-Spektrum: Vol. 12, No. 1, 2012)
- ZeitschriftenartikelReaktives Cloud Monitoring mit Complex Event Processing(Datenbank-Spektrum: Vol. 12, No. 1, 2012) Hoßbach, Bastian; Freisleben, Bernd; Seeger, BernhardIn den letzten Jahren hat Cloud Computing ein rasantes wirtschaftliches Wachstum erfahren. Um das Anbieten und Nutzen von virtualisierten IT-Ressourcen wie Server, Speicher, Plattformen und Anwendungen als immer und überall verfügbare sowie elastische Dienste im Web hat sich schnell eine wichtige Industrie entwickelt. Jedoch konnte die Beseitigung der Risiken nicht mit dieser rapiden Entwicklung von Cloud Computing mithalten. Vielmehr traten mit der Zeit immer mehr gravierende und bisher ungelöste Probleme auf. Dieser Beitrag zeigt, wie mit Hilfe von Complex Event Processing (CEP) eine ganzheitliche Überwachung (Monitoring) von Clouds in nahezu Echtzeit realisiert werden kann. Zusätzlich ist das vorgeschlagene Cloud Monitoring in der Lage, selbstständig auf die Ergebnisse von Analysen zu reagieren und in das gerade beobachtete Geschehen einzugreifen. Damit steht eine Plattform zur Verfügung, die den Entwurf und die Implementierung maßgeschneiderter Lösungen für die kritischen Risiken von Cloud Computing in den Bereichen Leistungsfähigkeit, Sicherheit und Verfügbarkeit erlaubt.
- ZeitschriftenartikelScheduling von Datenströmen auf der Basis von Service Level Agreements(Datenbank-Spektrum: Vol. 12, No. 1, 2012) Vogelgesang, Thomas; Geesen, Dennis; Grawunder, Marco; Nicklas, Daniela; Appelrath, H.-JürgenSoftware as a Service (SaaS) stellt einen Ansatz zur Bereitstellung standardisierbarer Software über das Internet dar. Auch die Verarbeitungskapazität von Datenstrommanagementsystemen (DSMS) kann auf diese Weise verschiedenen Kunden kostengünstig zugänglich gemacht werden. Der Anbieter garantiert dem Kunden eine gewisse Dienstqualität in Form von Service Level Agreements (SLAs), deren Verletzung i.d.R. finanzielle Konsequenzen hat. Der Dienstanbieter ist also zum einen daran interessiert, möglichst geringe Kosten durch die SLA-Verletzung zu verursachen, zum anderen eine optimale Systemressourcenauslastung (CPU, Hauptspeicher, etc.) zu erzielen. Diese Ressourcen werden in DSMS mit Hilfe von Schedulingverfahren den kontinuierlichen Anfragen zugewiesen. In unserer Arbeit haben wir ein aus dem Datenbankkontext stammendes Schedulingverfahren für Datenströme angepasst, das sowohl die durch Verletzungen von SLAs entstehenden Kosten aus Sicht des Anbieters berücksichtigt als auch eine effiziente Ressourcenverteilung ermöglicht. In Simulationen haben wir gezeigt, dass sich durch ein solches Scheduling die Kosten des Anbieters senken lassen.
- ZeitschriftenartikelSicherer Zugriff und sichere Verarbeitung von Kontextdatenströmen in einer verteilten Umgebung(Datenbank-Spektrum: Vol. 12, No. 1, 2012) Cipriani, Nazario; Dörler, Oliver; Mitschang, BernhardTechnologischer Fortschritt im Bereich der Mikroelektronik und Kommunikationstechnik führen zunehmend zu einem stark vernetzten, mit Sensoren ausgestatteten Umfeld. Die damit einhergehende stetig steigende Anzahl an Sensorinformationen, deren Daten in Form von Datenströmen bereitgestellt werden, ermöglichen neue Anwendungsszenarien und treiben neue Verarbeitungstechniken. Im Kontext der sich verstärkenden Durchdringung des alltäglichen Lebens mit sozialen Medien und der gleichzeitigen Auswertung von beispielsweise Positionsinformationen, wächst die Bedeutung der Zugriffskontrolle auf Information. Die Herausforderung in diesem Zusammenhang besteht darin, Mechanismen zur Verfügung zu stellen, die eine Regelung des Datenzugriffs ermöglichen und die Datenstromverarbeitung effizient und flexibel unterstützen.Diese Arbeit stellt ein flexibles Rahmenwerk zur sicheren Verarbeitung von Kontextdaten vor, das es Anbietern von Daten in Datenstromverarbeitungssystemen ermöglicht, den Zugriff und die Verarbeitung schützenswerter Daten zu kontrollieren. Hierbei ermöglicht das vorgestellte Konzept im Gegensatz zu bisherigen Konzepten insbesondere den feingranularen Zugriff auf Kontextdaten.