D16 (2015) - Ausgezeichnete Informatikdissertationen
Steffen Hölldobler et al. (Hrsg.)
GI-Edition - Lecture Notes in Informatics (LNI), D-16
Bonner Köllen Verlag (2015)
Autor*innen mit den meisten Dokumenten
Neueste Veröffentlichungen
- TextdokumentConstraint-Handling mit Supportvektor-Dekodern in der verteilten Optimierung(Ausgezeichnete Informatikdissertationen 2015, 2015) Bremer, JörgOptimierungsansätze in dynamisch organisierten, kooperativen Systemen stehen oft vor dem Problem, nicht auf ein statisches Optimierungsmodell zurückgreifen zu können. Im Smart Grid muss bei der Koordination dezentraler Energieerzeugungsanlagen jeder Anlage ein Fahrplan aus dem eigenen, spezifischen Lösungsraum zugewiesen werden, um einen gewünschten Gesamtlastgang zu erzielen. Diese Arbeit entwickelt ein Verfahren, mit dem abstrakte Darstellungen von Lösungsräumen einschließlich beschränkender Nebenbedingungen ohne spezifisches Wissen über die individuelle Modellierung automatisiert zu einem gemeinsamen Optimierungsmodell integriert werden können. Durch einen Supportvektor-Dekoder werden zulässige Lösungen systematisch generiert, sodass eingesetzte Optimierungsverfahren weder über eigene Constraintbehandlung noch über analgenspezifische Modellierungskenntnisse verfügen müssen.
- TextdokumentEffiziente Fußgängererkennung in Städtischen Verkehrsszenen(Ausgezeichnete Informatikdissertationen 2015, 2015) Zhang, ShanshanFußgänger sind wichtige Teilnehmer im Stadtverkehr-Umgebungen, und damit eine interessante Kategorie von Objekten für autonome Fahrzeuge zu handeln. Automatische Personenerkennung ist allgemein eine wesentliche Aufgabe zum Schutz von Fußgangern aus Kollision. In dieser Arbeit werden wir neue Ansatze untersuchen und entwickeln, für die Interpretation räumlicher und zeitlicher Eigenschaften von Fußgängern, unter drei verschiedenen Aspekten: Form, Wahrnehmung und Bewegung. Wir testen unsere drei Ansätze auf Bildund Videodaten von Verkehrsszenen im Freien, die wegen der dynamischen und komplexen Hintergründe herausfordernd sind. Die erzielten Ergebnisse zeigen, dass unsere Ansätze state-of-the-Art-Leistung erreichen und übertreffen sowie auch für andere Anwendungen, wie z.B. Indoor-Robotik oder öffentlicher Überwachung eingesetzt werden können.
- TextdokumentDie einfachen, kleinen und langsamen Dinge zählen(Ausgezeichnete Informatikdissertationen 2015, 2015) Curticapean, RaduWir untersuchen kombinatorische Zählprobleme hinsichtlich ihrer parametrisierten und Exponentialzeit-Komplexität. Im Vordergrund stehen hierbei das Zählen von Paarungen in strukturell einfachen Graphen, das Zählen kleiner Subgraph-Muster in sehr großen Zielgraphen, sowie exponentielle untere Schranken an die Laufzeit, die zum Lösen von Zählproblemen benötigt wird.
- TextdokumentKognitiver sequentieller Parallelismus: Von kanonischen neuronalen Schaltkreisen und dem Training rekurrenter neuronaler Netze für perzeptuelle Entscheidungsfindungen(Ausgezeichnete Informatikdissertationen 2015, 2015) Brosch, TobiasDie Entwicklung autonomer Fahrzeuge zeigt einmal mehr die Schwierigkeiten der visuellen Informationsverarbeitung. Während es Menschen scheinbar mühelos gelingt den visuellen Informationsstrom auszuwerten, bedarf es bei technischen Anwendungen leistungsstarker/energieintensiver GPUs. Neuromorphe Hardware, welche vom Gehirn inspiriert Millionen von Neuronen simuliert, zeigt hier alternative Ansätze für hochgradig skalierbare und energieeffiziente Lösungen [Me14]. Bestehende Algorithmen aus der Computer Vision lassen sich jedoch nur selten auf solche Hardware portieren [Es13]. Vielmehr bedarf es neuer Algorithmen um die Leistungsfähigkeit neuromorpher Systeme zu nutzen. Hierzu trägt meine Arbeit unmittelbar bei. Durch die Modellierung dynamischer Prozesse mit direktem Bezug zur visuellen Informationsverarbeitung im Gehirn und deren mathematischer Analyse wird die Basis geschaffen, um skalierbare und komplexe Systeme zu modellieren. Die Entwicklung eines ereignisbasierten Algorithmus zur optischen Flussschätzung und eines Lernalgorithmus für simultan rekurrente Netze ermöglicht ein verbessertes Verständnis von neurophysiologischen Untersuchungsdaten aber auch die Entwicklung neuer Anwendungen für extrem parallele (GPUs) und/oder neuromorphe Hardware.
- TextdokumentHochperformante Erdbebensimulationen(Ausgezeichnete Informatikdissertationen 2015, 2015) Breuer, AlexanderDas Verständnis der Erdbebendynamik wird von hochauflösenden, gekoppelten Simulationen des Bruchprozesses und der seismischen Wellenausbreitung unterstützt. Für die benötigten hohen Auflösungen wird eine immense Menge an Höchstleistungsrechenressourcen verwendet, daher ist eine optimale Ausnutzung durch die Software unerlässlich. Getrieben durch aktuelle Entwicklungen in der Hardware erfordern die höheren Anforderungen an Parallelisierung und Datenlokalität häufig das Ersetzen ganzer Softwareteile, um gleichzeitig eine effiziente Numerik und Maschinenauslastung zu gewährleisten. In dieser Dissertation präsentiere ich einen neuen Rechenkern für die seismische Simulationssoftware SeisSol. Der neue Kern maximiert den Wert und Durchsatz der Gleitkommaoperationen in der zugrundeliegenden ADER-DG Diskretisierungsmethode, um die Rechenzeit zum gewünschten Ergebnis zu minimieren. Beinhaltet sind automatisch optimierte Matrixkernel, hybride Parallelisierung von Vielkernarchitekturen bis hin zum kompletten Großrechner, sowie ein hochperformantes gruppiertes lokales Zeitschrittschema. Der präsentierte Kern reduziert die Rechenzeit von SeisSol um einen substantiellen Faktor und skaliert bis hin zu mehr als einer Millionen Recheneinheiten. Durch den Kern wurde eine wegweisende Simulation des Landers-Erdbebens von 1992 auf einem kompletten Großrechner ermöglicht. Zum ersten Mal erlaubte diese Simulation die Analyse des damit verbundenen komplexen Bruchprozesses, welcher aus der nichtlinearen Interaktion des Reibungsprozesses gekoppelt an die seismische Wellenausbreitung resultiert, in einer komplizierten Geometrie.
- TextdokumentBrückenschlag zwischen Verifikation und systematischem Testen(Ausgezeichnete Informatikdissertationen 2015, 2015) Christakis, Maria
- TextdokumentLeistungsbewertung von Ressourcenmanagementstrategien für zelluläre und drahtlose Mesh-Netzwerke(Ausgezeichnete Informatikdissertationen 2015, 2015) Wamser, FlorianHeutige Kommunikationsnetzwerke müssen eine große Anzahl an heterogenen Anwendungen und Diensten schultern. Dies gilt zusätzlich zu den Herausforderungen, dass sie kostengünstig sein sollen und schnelles, qualitativ-hochwertiges Internet anbieten müssen. Ein spezialisiertes Ressourcenmanagement kann in vielen dieser Fälle helfen und eine Win-Win-Situation für beide Parteien - den Benutzer und das Netzwerk - darstellen. In meiner Dissertation [Wa15] untersuche ich verschiedene neue Ressourcenmanagementansätze zur Leistungsoptimierung und Steigerung der Ressourceneffizienz in Zugangsnetzen. Die untersuchten Ansätze arbeiten auf verschiedenen Kommunikationsschichten und erfüllen unterschiedliche Ziele. Am Ende stellt diese Arbeit Empfehlungen für Netzbetreiber dar, wie ein Ressourcenmanagement für unterschiedliche Netzwerktypen und Ziele aussehen kann und welcher Nutzen in Vergleich mit dem erforderlichen Aufwand und der höheren Komplexität zu erwarten ist.
- TextdokumentPipelines für effiziente und robuste Ad-hoc-Textanalyse(Ausgezeichnete Informatikdissertationen 2015, 2015) Wachsmuth, HenningSuchmaschinen und Big-Data-Analytics-Anwendungen zielen darauf ab, ad-hoc relevante Informationen zu Anfragen zu finden. Häufig müssen dafür große Mengen natürlichsprachiger Texte verarbeitet werden. Um nicht nur potentiell relevante Texte, sondern direkt relevante Informationen zu ermitteln, werden Texte zunehmend tiefer analysiert. Dafür können theoretisch komplexe Pipelines mit zahlreichen Analysealgorithmen eingesetzt werden. Aufgrund fehlender Effizienz und Robustheit sind die durchgeführten Textanalysen in der Praxis jedoch bislang auf einfache, manuell erstellte Pipelines für antizipierte Anfragen beschränkt. Der vorliegende Beitrag gibt einen Überblick über einen Ansatz zur automatischen Erstellung von Pipelines für beliebige Textanalysen. Die resultierenden Pipelines sind effizienzoptimiert und arbeiten robust auf heterogenen Texten. Der Ansatz kombiniert zu diesem Zweck neuartige Verfahren, die auf Techniken der klassischen künstlichen Intelligenz und des maschinellen Lernens basieren. Formale Untersuchungen wie auch zahlreiche empirische Experimente belegen, dass der Ansatz einen wichtigen Schritt hin zum Ad-hoc-Einsatz von Textanalyse-Pipelines in Suchmaschinen und Big-Data-Analytics-Anwendungen darstellt.
- TextdokumentÜber die Auswirkungen von DNSSEC auf das Internet(Ausgezeichnete Informatikdissertationen 2015, 2015) Wander, MatthäusIm folgenden Beitrag werden die Sicherheitsdefizite des Domain Name Systems (DNS) untersucht und die Auswirkungen der DNSSEC-Sicherheitserweiterungen bewertet. Durch Messungen im Internet wird die systematische Durchführung von DNS-basierten Netzsperren belegt. In China und im Iran wird eine Technik eingesetzt, die vollumfänglich DNS-Anfragen im Netz untersucht und prinzipiell auch die Kommunikation Dritter in anderen Ländern beeinträchtigen kann. Die Sicherheitsziele von DNSSEC sind Datenintegrität und Authentizität, was durch Signaturen umgesetzt wird. Die NSEC3-Erweiterung schützt zudem DNS-Server durch ein Hash-Verfahren vor dem Auslesen des Domainnamensraums. Die von NSEC3 zugesicherte Privatheit kann allerdings durch den Einsatz von GPU-Berechnung effizient angegriffen werden. Ferner wird mit aktiven Messmethoden die Verbreitung von DNSSEC untersucht, die nach anfänglicher Zurückhaltung deutlich zugenommen hat. Auf der Serverseite gibt es mehr als fünf Millionen mit DNSSEC signierte Domainnamen, die jedoch teilweise unsicher oder aufgrund von Wartungsfehlern nicht mit DNSSEC erreichbar sind. Auf der Clientseite ist die Validierungsquote in den letzten drei Jahren weltweit von rund 1\% auf 21\% gestiegen.
- TextdokumentNeue Methoden für klassische Grapheinbettungsprobleme - Orthogonale Zeichnungen & bedingte Planarität(Ausgezeichnete Informatikdissertationen 2015, 2015) Bläsius, ThomasMöchte man Graphen automatisiert möglichst anschaulich darstellen, so stößt man häufig auf anspruchsvolle Optimierungsprobleme, die diesen Visualisierungsproblemen zugrunde liegen. Ein gutes theoretisches Verständnis dieser Kernprobleme ist essentiell für den Entwurf von Algorithmen, die sowohl performant sind, als auch qualitativ hochwertige Visualisierungen generieren. Die in meiner Dissertation [Bl15] untersuchten Kernprobleme fallen in zwei Kategorieren und haben gemeinsam, dass sie zwar schon verhältnismäßig intensiv erforscht wurden (und damit als klassisch angesehen werden können), wohingegen gewissen zentrale Fragestellungen noch offen sind bzw. waren. Bei der ersten Kategorie handelt es sich um die Knickminimierung in orthogonalen Zeichnungen. Konkret wird der Fall betrachtet, dass die Topologie der Zeichnung nicht schon in der Eingabe gegeben ist (was mehr Freiheiten und damit bessere Ergebnisse zulässt, das Problem aber signifikant schwerer macht), sowie der Fall, dass die Knotengrade 4 überschreiten dürfen. Die zweite Kategorie beschäftigt sich mit dem Basisfall der Kreuzungsminimierung, also mit der Frage, ob ein Graph ganz ohne Kreuzungen (d.h. planar) gezeichnet werden kann. Dabei werden jedoch Szenarien betrachtet, in denen nicht nur ein einzelner Graph für sich visualisiert werden soll, sondern beispielsweise ein Graph zusammen mit einer Gruppierung (clustering) der Knoten oder zusammen mit einem zweiten Graphen auf der gleichen Knotenmenge (zum Vergleich verschiedener oder einer sich verändernden Relation auf den gleichen Objekten). Bei all diesen grundlegenden Problemen gehe ich der Frage nach, ob und unter welchen Voraussetzungen sie sich effizient (d.h. in polynomieller Zeit) lösen lassen.