Auflistung P217 - 6. DFN-Forum Kommunikationstechnologien nach Titel
1 - 10 von 13
Treffer pro Seite
Sortieroptionen
- Editiertes Buch
- KonferenzbeitragAnomalieerkennung basierend auf statistischer Modellierung von HADES Messdaten(6. DFN-Forum Kommunikationstechnologien, 2013) Ramsch, Kai; Kraft, BirgitIm Rahmen der Qualitätskontrolle in Weitverkehrsnetzen erfasst das am DFN-Labor entwickelte HADES Monitoringtool aktiv One-Way Delay Daten auf Messtrecken innerhalb eines Netzwerkes. Diese Daten werden visuell dargestellt und können für die Überwachung des Netzwerkes und die Analyse vergangener Ereignisse im Netz eingesetzt werden. In einem vollvermaschten Messnetz kann die Überwachung wegen der Vielzahl an Messtrecken nicht mehr manuell erfolgen. In dieser Arbeit werden daher Normalzustände für individuelle Messstrecken durch mathematische Modelle definiert und ein Algorithmus vorgestellt, der One-Way Delay Messwerte statistisch nach Anomalien durchsucht. Die Anwendung des Verfahrens auf ausgewählte Messstrecken des X-WiN demonstriert eine erfolgreiche Erkennung von Anomalien mit einer geringen Fehlerquote. Eine Analyse der Falschmeldungen ergibt, dass bei geeigneter Adaption der Da- tenvorverarbeitung die Anzahl der Fehler noch weiter reduziert werden kann, so dass eine automatisierte Untersuchung aller Messstrecken eines Netzes möglich wird.
- KonferenzbeitragAutomatisierte Integritätssicherung von wissenschaftlichen Primärdaten ab ihrer Erhebung(6. DFN-Forum Kommunikationstechnologien, 2013) Potthoff, Jan; Johannes, Paul Christopher; Stumpf, MaximilianUm die Qualität der Forschung erhalten zu können, muss u. a. die Integrität der im Forschungsprozess entstandenen Daten nachweisbar sein. Primärdaten sind in der Forschung von besonderer Bedeutung, da auf ihnen das weitere Vorgehen, die Auswertung und die Ergebnisse beruhen. Eine frühzeitige Sicherung der Integrität ermöglicht es, Veränderungen an Daten aufzudecken. Um die Integrität frühzeitig zu sichern, können speziell dafür entwickelte Endgeräte eingesetzt werden. Diese stehen jedoch nur vereinzelt zur Verfügung. Durch eine generische Lösung kann dies aber auch für andere, bereits im Forschungsprozess eingesetzte Endgeräte verfügbar gemacht werden.
- KonferenzbeitragAutomatisierte Korrelation und Aggregation von Syslog-Nachrichten in NoSQL-basierten Datenbanken(6. DFN-Forum Kommunikationstechnologien, 2013) Reißmann, Sven; Frisch, Dustin; Rieger, SebastianLogging-Informationen von Systemen und Diensten nehmen in ihrem Umfang durch den Detaillierungsgrad komplexer Anwendungen, aber auch durch die zunehmende Anzahl von verwendeten Systemen (etwa aufgrund der vermehrten schnellen Bereitstellung von virtuellen Maschinen z.B. in Cloud Umgebungen) immer weiter zu. Um die zeitnahe Auswertung und Reaktion auf relevante Logging-Informationen zu gewährleisten sind automatisierte Korrelationsund Aggregationsverfahren erforderlich. In der Vergangenheit wurden diese z.B. durch die Zentralisierung von Logging-Systemen unterstützt. In der vorliegenden Arbeit wird darauf aufbauend ein Prototyp für eine automatisierte inhaltliche Korrelation und Aggregation bzw. Verdichtung der Logging-Informationen präsentiert. Hierfür werden insbesondere die Anforderungen an Logging-Systeme bei der dynamischen Bereitstellung von Systemen und Anwendungen bzw. Diensten (vgl. Cloud Umgebungen) vorgestellt.
- KonferenzbeitragCAESAREA - combined architecture for energy saving by auto-adaptive resource allocation(6. DFN-Forum Kommunikationstechnologien, 2013) Versick, Daniel; Tavangarian, DjamshidEnergy consumption of data centers increased continously during the last decades. As current techniques for improving their energy efficiency are usually limited to one type of data center components, it is difficult to employ them for a holistic optimization which may utilize synergies between all components. This paper introduces architecture and working principles of the novel energy management system CAESARA that applies a holistic view for evaluating an energy-efficient virtual machine placement in current virtualization environments for minimizing the number of running energy-consuming physical machines. In contrast to existing solutions, our placement algorithm does not only aggregate load to a minimum number of servers - it also discovers which servers act as most energy-efficient migration targets in conjunction with their environment (e.g. their cooling equipment). This paper presents the architecture of CAESARA and defines properties for an energy-efficient virtual machine placement algorithm. As the placement algorithm uses an energy-aware metric, it is the basis for an innovative system, which may optimize the energy efficiency of data centers in a holistic way by including any infrastructural energy consumption.
- KonferenzbeitragCASA - Ein Konzept zur nutzergetriebenen, kontextbasierten Dienstintegration in Lehr- und Lernumgebungen(6. DFN-Forum Kommunikationstechnologien, 2013) Lehsten, Philipp; Tavangarian, DjamshidAn Hochschulen ist heute eine hochgradig heterogene IT-Landschaft mit Diensten und Web-Anwendungen etabliert. Durch die gewachsenen Strukturen an vielen Fakultäten und die häufig dezentral verwalteten Anwendungen ergibt sich für die Studierenden die Notwendigkeit, eine Vielzahl von Diensten zu kennen und regelmäßig aufzusuchen. Das in diesem Beitrag vorgestellte CASA-Konzept (Context-Aware Service Access) erlaubt es, diese Dienste in Abhängigkeit von der Situation des Nutzers in andere Anwendungen zu integrieren und dort zu nutzen. Diese Integration kann dabei auch durch den Nutzer selbst erfolgen und ermöglicht es so, für jede Situation eines Nutzers ein auf ihn und seine Nutzergruppe abgestimmtes Dienstensemble zu formen, welches ihm in verschiedenen Anwendungen zur Verfügung steht. Neben dem Konzept wird in diesem Beitrag auch auf die bereits durchgeführten und die laufenden CASA-Umsetzungen eingegangen.
- KonferenzbeitragGanzheitliche Architektur zur Entwicklung und Analyse sicherheitskritischer Systeme und Anwendung(6. DFN-Forum Kommunikationstechnologien, 2013) Golling, Mario; Koch, Robert; Hillmann, Peter; Dreo Rodosek, GabiDie Forschung auf dem Gebiet der IT-Sicherheit - hier im Speziellen im Bereich der Analyse von Malware sowie gezielten Angriffen - stellt besondere Anforderungen an den Aufbau und den Betrieb von IT-Systemen. Um Informationen über Angriffsmuster und Angreiferverhalten zu erlangen, muss potentiellen Angreifern ein attraktives Ziel geboten werden, das nach außen hin den Anschein eines realen Produktivsystems bzw. -netzes erweckt und sich entsprechend verhalten muss. Sollen über eine Analyse von automatisiert arbeitender Schadsoftware hinaus Aktivitäten professioneller Angreifer analysiert werden, reicht die ausschließliche Nutzung herkömmlicher Honeypots nicht aus. Gleichzeitig allerdings muss sichergestellt werden, dass alle mit einem Angriff verbundenen Aktionen protokolliert und ein Übergreifen des Angriffs aus der Forschungsumgebung auf die produktiven Bereiche verhindert wird. Probleme bei Untersuchungen in diesem Bereich bestehen in der vollständigen Verhinderung von übergreifenden Angriffen auf die stetig laufenden Produktivsysteme und somit in der Gefahr selbst Opfer zu werden. Im Gegensatz dazu sollte die einzurichtende Testumgebung nach außen hin wie ein reales Produktivnetz aussehen und verhalten, um die Echtheit zu gewährleisten. Aus diesem Grund wäre es ungünstig ein separates Netz ohne produktive Systeme dafür herzunehmen. Weiterhin besitzen die meisten Forschungseinrichtungen und Unternehmen nicht die Möglichkeit einen kompletten Netzbereich nur für die Entwicklung und Analyse sicherheitskritischer Systeme einzurichten. Daher wird ein Teil von einem produktiv genutzten Netzbereich für die Forschung an Malware und Analyse von Angriffen deklariert. Dafür ist es zwingend Notwendig, dass entsprechende Sicherheitsvorkehrungen getroffen werden.
- KonferenzbeitragIdentity and access management for complex research data workflows(6. DFN-Forum Kommunikationstechnologien, 2013) Zahoransky, Richard; Semaan, Saher; Rechert, KlausIdentity and Access Management (IAM) infrastructures already provide a crucial and established technology, enabling researchers and students to access services like computing facilities and electronic resources. However, the rise of complex and fully digitalized scientific workflows, world-wide research co-operations, and the reliance on external services and data sources poses new challenges to IAM architectures and their federations. Due to the non-uniform structure of such services each service provider is implementing its own accessand security-policy. As a result of license restrictions or privacy concerns, a user has to be authenticated and authorized by different entities in different contexts and roles to access complex research data, i.e. requesting a digital object as well as appropriate processing tools and a rendering environment. In order to enable seamless scientific workflows, an efficient federated IAM architecture is required. In this paper we discuss the use-case of functional research data preservation and the requirements for a common authentication and authorization scheme. The goal is to develop a security architecture allowing the user to login only once, e.g. at his or her university library and the Identity Management (IdM) system should be able to delegate the user's request to the related service providers. All these entities need to interact with and on behalf of the user without the user having to enter his credentials at every point. The results of this work are particularly useful when facing upcoming challenges to securing and managing access to non-uniform and inhomogenous cloud services and external data sources as a basis for today's scientific workflows and electronic business processes.
- KonferenzbeitragEin Konzept zum Aufbau eines föderierten, dezentralen Speichersystems im Hochschulumfeld(6. DFN-Forum Kommunikationstechnologien, 2013) Meier, Konrad; Wehrle, Dennis; Schlitter, NicoTraditionell werden an den Hochschulen lokale Speichersysteme betrieben. Eine kosteneffizientere Alternative stellen zentralisierte Speichersysteme dar, die allerdings über WAN-Verbindungen häufig nicht performant genutzt werden können. In dieser Arbeit werden deshalb Anforderungen für zukünftige Speichersysteme im Hochschulumfeld definiert und die Schwächen existierender Systeme aufgezeigt. Ba- sierend auf dieser Analyse wird der Entwurf eines föderierten Speichersystems vorgestellt. Das konzipierte System vereinigt dabei die Vorzüge klassischer lokaler Datenspeichersysteme mit den Vorteilen von Cloud-basierten Ansätzen und Object-Storage- Systemen.
- KonferenzbeitragKonzeption einer Architektur zur Unterstützung von Mobilität und Multihoming im zukünftigen Internet(6. DFN-Forum Kommunikationstechnologien, 2013) Gladisch, Alexander; Tavangarian, DjamshidMobilität und Multi-Homing sind eng verwandte Probleme, die auf das semantisch überladene Adressierungsschema des Internet Protokolls (IP) zurückzuführen sind. Die Auftrennung der im IP-Adressierungsschema eingebetteten Funktionalitäten und deren Integration in separate Adressteile ist vielversprechend, um Mobilität und Multi-homing zu unterstützen. In dieser Arbeit wird das Node-oriented Internet Protocol (NIP) vorgestellt. NIP greift die Idee der Adressseparation auf und führt ein neues Drei-Tupel Adressierungsschema bestehend aus Knoten-ID, Interface-ID und topologischer Lokalisierung ein. Dieses Konzept schafft in Kombination mit weiteren in dieser Arbeit definierten Funktionsprinzipien und einem ebenfalls in dieser Arbeit vorgestellten global skalierbarem Mapping System die Grundlage, erweiterte Mobilitätsund Multi-homing-Unterstützung auf Netzwerkebene zu ermöglichen.