D15 (2014) - Ausgezeichnete Informatikdissertationen
Steffen Hölldobler et al. (Hrsg.)
Ausgezeichnete Informatikdissertationen 2014
Auflistung D15 (2014) - Ausgezeichnete Informatikdissertationen nach Erscheinungsdatum
1 - 10 von 33
Treffer pro Seite
Sortieroptionen
- TextdokumentSkalierbare Analyse von räumlichen Daten in großangelegten wissenschaftlichen Simulationen(Ausgezeichnete Informatikdissertationen 2014, 2015) Tauheed, FarhanDie Wissenschaft befindet sich heutzutage in einem radikalen Umbruch. Wissenschaftler müssen sich heute nicht mehr nur auf traditionelle wissenschaftliche Methoden des Experimentierens, dem entwickeln von Theorien und dem Testen von Hypothesen verlassen. Zusätzlich können sie heute auch massive Mengen von Daten analysieren um neue wissenschaftliche Erkenntnisse zu erlangen. Immer schnellere Hardware sowie immer genauere Sensoren ermöglichen ihnen das Sammeln von Daten, das Bauen von Modellen und das Simulieren von Naturphänomenen im großen Maßstab. Wissenschaftliche Entdeckungen in diesem Zusammenhang bedingen allerdings Algorithmen für die effiziente Analyse von massiven Datenmengen. Die heute enormen Datenmengen machen die Ausführung der notwendigen Analysen zu einer beispiellosen Herausforderung. Die Effizienz heutiger Algorithmen reicht nicht aus um die Datenmengen schnell genug zu analysieren und das Problem wird immer schlimmer da die Datenmengen rasant wachsen. Diese Doktorarbeit konzentriert sich auf die Trends des Datenwachstums in den Wissenschaften und wie diese Trends die Leistung von Analysealgorithmen beeinflussen. Eine interessante Entwicklung bezüglich wissenschaftlicher Daten ist, dass wenn Wissenschaftler die Datenmenge erhöhen, die Daten gleichzeitig auch komplexer werden, so dass bekannte Algorithmen ineffizient werden. Die "Komplexität" der Daten wird durch die Veränderung der Datencharakteristiken, wie beispielsweise Verteilung, Dichte und Auflösung verursacht. Die Zunahme der Komplexität verschlechtert die Effizienz bestehender Algorithmen wesentlich und, noch wichtiger, hemmt auch die Skalierbarkeit der Algorithmen. Diese Arbeit schlägt eine Methodik zur Entwicklung neuer Analysealgorithmen vor welche effizient sind und besser skalieren als existierende Methoden. Mit wissenschaftlichen Daten demonstrieren wir, dass Algorithmen die mit unserer Methodik entwickelt wurden nicht nur schneller als heutige Algorithmen sind, sondern auch, dass sie wesentlich besser mit Komplexität und Größe zukünftiger Datensätze skalieren.
- TextdokumentIntrinsische Plagiatserkennung und Autorenerkennung mittels Grammatikanalyse(Ausgezeichnete Informatikdissertationen 2014, 2015) Tschuggnall, MichaelDurch die hohe und ständig steigende Anzahl an frei verfügbaren Textdokumenten wird es immer leichter, Quellen für mögliche Plagiate zu finden, während es auf der anderen Seite für automatische Erkennungstools aufgrund der großen Datenmengen immer schwieriger wird, diese zu erkennen. In dieser Arbeit wurden verschiedene Algorithmen zur intrinsischen Plagiatserkennung entwickelt, welche ausschließlich das zu prüfende Dokument untersuchen und so das Problem umgehen, externe Daten heranziehen zu müssen. Dabei besteht die Grundidee darin, den Schreibstil von Autoren auf Basis der von ihnen verwendeten Grammatik zur Formulierung von Sätzen zu untersuchen, und diese Information zu nutzen, um syntaktisch auffällige Textfragmente zu identifizieren. Unter Verwendung einer ähnlichen Analyse wird diese Idee auch auf das Problem, Textdokumente automatisch Autoren zuzuordnen, angewendet. Darüber hinaus wird gezeigt, dass die verwendete Grammatik auch ein unterscheidbares Kriterium darstellt, um Informationen wie das Geschlecht und das Alter des Verfassers abzuschätzen. Schlussendlich werden die vorherigen Analysen und Resultate verwendet und so adaptiert, dass Anteile von verschiedene Autoren in einem gemeinschaftlich verfassten Text automatisch erkannt werden können.
- TextdokumentAusgezeichnete Informatikdissertationen 2014(2015) Angerer, Andreas; Auer, Christopher; Berkholz, Christoph; Bermbach, David; Bringmann, Karl; Cano, Estefania; Distler, Tobias; Gisbrecht, Andrej; Herrmann, Dominik; Hoffmann, Steve; Hufsky, Franziska; Kirchner, Elsa Andrea; Klambauer, Günter; Lanthaler, Markus; Lawonn, Kai; Lemmerich, Florian; Linden, Sven; Manthey, Norbert; Michels, Dominik L.; Mühlbach, Sascha; Reuter, Christian; Rieke, Jahn; Rohr, David; Sallinger, Emanuel; Samek, Wojciech; Schmidt, Melanie; Tauheed, Farhan; Tschuggnall, Michael; Wenger, Stephan; Ziller, Michael J.
- TextdokumentPlanare Graphen und ihre Dualgraphen auf Zylinderoberflächen(Ausgezeichnete Informatikdissertationen 2014, 2015) Auer, ChristopherDie Arbeit beschäftigt sich mit planaren Zeichnungen ungerichteter und gerichteter Graphen auf Zylinderoberflächen. Im ungerichteten Fall werden die Knoten auf einer Linie parallel zur Zylinderachse positioniert, während die Kanten diese Linie nicht schneiden. Es wird gezeigt, dass eine planare Zeichnung genau dann möglich ist, wenn die Kanten des Graphen in einer double-ended queue (Deque) verarbeitet werden können. Als Konsequenz ergibt sich, dass die Deque genau die planaren Graphen mit Hamiltonpfad charakterisiert. Dies erweitert die bereits bekannte Charakterisierung planarer Graphen mit Hamiltonkreis durch den Doppelstack. Im gerichteten Fall verlaufen die Kantenkurven entweder in Richtung der Zylinderachse (SUP) oder um die Achse herum (RUP). Die Arbeit charakterisiert RUP-Graphen und zeigt, dass RUP und SUP ihre Rollen tauschen, wenn man Graph und Dualgraph betrachtet. Mit Hilfe dieser Charakterisierung wird ein Erkennungs-Algorithmus für RUP-Graphen entwickelt.
- TextdokumentMessbarkeit und Beeinflussung von Eventual-Consistency in verteilten Datenspeichersystemen(Ausgezeichnete Informatikdissertationen 2014, 2015) Bermbach, DavidCloudspeicherdienste und NoSQL-Systeme, die sich zunehmend größerer Beliebtheit erfreuen, bieten meist weder transaktionale Features noch strikte Konsistenzgarantien. Stattdessen wird mit Eventual-Consistency lediglich garantiert, dass alle Schreiboperationen irgendwann – jedoch zu einem undefinierten Zeitpunkt – auf allen Replika ausgeführt werden. Die Unsicherheit, wann dies passiert, stellt dabei Anwendungsentwickler, die ein solches System nutzen moöchten, vor große Schwierigkeiten, da es jederzeit möglich ist, dass veraltete Daten gelesen werden oder parallele Updates zu weitergehenden Problemen führen. Mit dieser Arbeit wird erstmals ermöglicht, durch Experimente und Simulationen Wissen über den Grad der Inkonsistenz zu gewinnen und mit ebenfalls vorgestellten Verfahren auf Basis dieses Wissens Inkonsistenzen in der Anwendungsschicht aufzulösen oder sogar durch eine Middlewareschicht zusätzliche Konsistenzgarantien zu geben.
- TextdokumentModellkonsistenz-Management im Systems Engineering(Ausgezeichnete Informatikdissertationen 2014, 2015) Rieke, Jan DominikUm der Komplexität der interdisziplinären Entwicklung moderner technischer Systeme Herr zu werden, findet die Entwicklung heutzutage meist modellbasiert statt. Dabei werden zahlreiche verschiedene Modelle genutzt, die jeweils unterschiedliche Gesichtspunkte berücksichtigen und sich auf verschiedenen Abstraktionsebenen befinden. Wenn die hierbei auftretenden Inkonsistenzen zwischen den Modellen ungelöst bleiben, kann dies zu Fehlern im fertigen System führen. Modelltransformations- und -synchronisationstechniken sind ein vielversprechender Ansatz, um solche Inkonsistenzen zu erkennen und aufzulösen. Existierende Modellsynchronisationstechniken sind allerdings nicht mächtig genug, um die komplexen Beziehungen in so einem Entwicklungsszenario zu unterstützen. In dieser Arbeit wird eine neue Modellsynchronisationstechnik präsentiert, die es erlaubt, Modelle verschiedener Sichten und Abstraktionsebenen zu synchronisieren. Dabei werden Metriken zur Erhöhung des Automatisierungsgrads eingesetzt, die Expertenwissen abbilden. Der Ansatz erlaubt unterschiedliche Grade an Benutzerinteraktion, von vollautomatischer Funktionsweise bis zu feingranularen manuellen Entscheidungen.
- TextdokumentStandardisierung von Web APIs durch die Kombination der Prinzipien von REST und Linked Data(Ausgezeichnete Informatikdissertationen 2014, 2015) Lanthaler, MarkusUm die exponentiell wachsende Menge an Informationen weiterhin bewältigen zu können, tauschen immer mehr Systeme riesige Mengen an Daten aus und analysieren sowie bearbeiten diese völlig autonom. Zur Kommunikation werden dabei vorwiegend World Wide Web Technologien verwendet. Da jedoch grundlegende, standardisierte Technologien noch nicht existieren, sind Entwickler gezwungen eine Reihe komplexer Designentscheidungen zu treffen. Das Resultat sind in der Regel proprietäre Services die nur von spezialisierten Clients angesprochen werden können. Diese Dissertation erörtert die Probleme aktueller Web Services sowie entsprechender Semantic Web Technologien und beleuchtet den aktuellen Stand der Technik. Des Weiteren stellt sie die Ergebnisse meiner Forschung an Web APIs der dritten Generation vor. Die erarbeiteten Technologien wurden teilweise bereits als Standards vom World Wide Web Consortium ratifiziert und werden in von Millionen von Webseiten verwendet. Die Dissertation beschreibt nicht nur wie die erarbeiteten Lösungen zum Design und zur Implementierung von Services genutzt werden können, sondern evaluiert auch ihre Praxistauglichkeit die mittlerweile auch durch die weite Akzeptanz bewiesen wurde.
- TextdokumentEmergente Kollaborationsinfrastrukturen – Technologiegestaltung am Beispiel des inter-organisationalen Krisenmanagements(Ausgezeichnete Informatikdissertationen 2014, 2015) Reuter, ChristianAm Beispiel des Krisenmanagements untersucht die hier vorgestellte Dissertation die Herausforderungen und Möglichkeiten der Technologiegestaltung für emergente, d.h. dynamische und nicht vorhersehbare, Kontexte. Hierfür wird empirisch die kollaborative Arbeit von Polizei, Feuerwehr, Energienetzbetreibern und Bürgern im inter-organisationalen Katastrophenschutz erforscht, um exemplarische Kollaborationspraktiken zu ermitteln, die Limitationen der Arbeitsinfrastruktur aufdecken. Hierauf aufbauend werden neuartige Konzepte und IT-Artefakte gestaltet, implementiert und evaluiert, die emergente Kollaboration ermöglichen sollen. Neben der Erforschung potentieller organisationaler Effekte auf die Fähigkeit mit Emergenz umzugehen, werden methodische Implikationen für die Technologiegestaltung abgeleitet.
- TextdokumentRegularisierte Optimierungsverfahren für Rekonstruktion und Modellierung in der Computergraphik(Ausgezeichnete Informatikdissertationen 2014, 2015) Wenger, StephanDas Feld der Computergraphik beschäftigt sich mit virtuellen Abbildern der realen Welt, welche durch Modellierung oder Rekonstruktion aus Messdaten erstellt werden. Rekonstruktionsprobleme werden oft als regularisierte Optimierungsprobleme formuliert, in denen ein Datenterm die Konsistenz zwischen Modell und Daten sicherstellt, während ein Regularisierungsterm plausible Lösungen begünstigt. In meiner Arbeit zeige ich, dass verschiedene Rekonstruktionsprobleme der Computergraphik Instanzen einer gemeinsamen Klasse von Optimierungsproblemen sind, die mit einem einheitlichen algorithmischen Framework gelöst werden können. Darüber hinaus wird gezeigt, dass vergleichbare Optimierungsverfahren auch genutzt werden können, um Probleme der datenbasierten Modellierung zu lösen, bei denen die aus Messungen verfügbaren Daten nicht für eine genaue Rekonstruktion ausreichen. Als praxisrelevante Beispiele für Rekonstruktionsprobleme werden Sparsity- und Group-Sparsity-Methoden für die radiointerferometrische Bildrekonstruktion vorgestellt. Als Beispiel für Modellierung werden analoge Verfahren untersucht, um automatisch volumetrische Modelle astronomischer Nebel aus Einzelbildern zu erzeugen. Die Ergebnisse dieser Arbeit haben über das akademische Umfeld hinaus Sichtbarkeit erlangt und werden heute von mehreren Softwareunternehmen aus der Planetarienbranche praktisch eingesetzt.
- TextdokumentSchnelle, Effiziente und Energieeffiziente Algorithmen für moderne Prozessoren und Grafikkarten in der Hochenergiephysik und anderen Gebieten(Ausgezeichnete Informatikdissertationen 2014, 2015) Rohr, DavidGroße Rechenzentren und Supercomputer bilden Grundvoraussetzungen vieler rechenintensiver Gebiete aus Forschung und Industrie. Sie ermöglichen das schnellere Gewinnen besserer, genauerer und umfangreicherer Resultate sowie den effizienteren Einsatz der begrenzten Ressourcen. Bisher wurde der stetige Geschwindigkeitszuwachs unter anderem durch erhöhte Energieaufnahme erkauft. Heutige Rechenzentren erreichen mit einem Strombedarf von teils weit über zehn Megawatt den Punkt, an dem höhere Rechenleistung nur noch durch effizientere Hardware und Programmierung möglich ist. Diese Arbeit stellt in drei völlig unterschiedlichen Fachrichtungen (Datenanalyse in der Hochenergiephysik am CERN, Fehlertolerante Datenspeicherung und Lineare Algebra) Lösungen zu rechenintensiven, grundlegenden Problemen vor. Diese arbeiten durch effiziente Programmierung und Einsatz moderner paralleler Prozessoren sowie Beschleunigerkarten deutlich schneller und energieeffizienter als herkömmliche Methoden