D15 (2014) - Ausgezeichnete Informatikdissertationen
Steffen Hölldobler et al. (Hrsg.)
Ausgezeichnete Informatikdissertationen 2014
Auflistung D15 (2014) - Ausgezeichnete Informatikdissertationen nach Erscheinungsdatum
1 - 10 von 33
Treffer pro Seite
Sortieroptionen
- TextdokumentFrontmatter(Ausgezeichnete Informatikdissertationen 2014, 2015)
- TextdokumentPrinzipien der Informationsintegration: Analyse, Optimierung und Management von Schematransformationen(Ausgezeichnete Informatikdissertationen 2014, 2015) Sallinger, EmanuelDie Menge an Information, die in Datenbanken und im Internet zur Verfügung steht, nimmt stetig zu, oder, wie es manche gerne ausdrücken, wir stehen am Beginn der Ära von "Big Data" (dt. "große Daten"). Die Integration dieser Information ist eine Schlüsselherausforderung um diese Datenmengen nutzbar zu machen. Die Datenbankforschung hat in den letzten Jahren große Fortschritte im Bereich der Informationsintegration gemacht. Eine starke formale Basis für Informationsintegration wurde durch das Konzept der Schematransformationen (engl. "Schema Mappings") gelegt – das sind Spezifikationen der Beziehung zwischen Datenbanken. Um effiziente Systeme auf der Basis von Schematransformationen zu entwickeln sind Analyse, Optimierung und Management von Schematransformationen essentielle Aufgaben. Die systematische Studie dieser Bereiche ist das Thema dieser Arbeit.
- TextdokumentInnovationen für die distanzbasierte Datenvisualisierung(Ausgezeichnete Informatikdissertationen 2014, 2015) Gisbrecht, AndrejDie Arbeit adressiert das im Zuge stetig wachsender digitaler Datenmengen hoch relevante Gebiet der Datenvisualisierung durch Dimensionsreduktion. Im Zentrum stehen Problemstellungen für komplexe Situationen, wie etwa heterogene nichtvektrorielle Datensätze, rauschbehaftete oder falsch gestellte Problemstellungen, sowie extrem große Datenmengen. Im Rahmen der Arbeit wurden für diese Probleme jeweils effiziente Lösungen entwickelt und vergleichend evaluiert. Zudem gelingt es in der Arbeit erstmalig, mathematisch exakte Garantien für den wichtigen Fall nichtmetrischer Daten bereitzustellen.
- TextdokumentIllustrative Visualisierung von medizinischen Datensätzen(Ausgezeichnete Informatikdissertationen 2014, 2015) Lawonn, KaiDas Ziel der illustrativen Visualisierung ist die vereinfachte Darstellung einer komplexen Szene oder eines komplexen Objektes. Dabei wird versucht die Oberflächenstruktur zu vereinfachen, indem unwichtige Informationen ausgelassen werden. Diese Abstraktion wird oft bevorzugt im Vergleich zu physikalisch korrekten voll ausgeleuchteten Szenen. In der vorgestellten Dissertation wird der aktuellen Stand der Merkmalslinien analysiert. Anschließend wurde eine Evaluierung durchgeführt um die Qualität der Merkmalslinien auf anatomischen Oberflächen festzustellen. Diese Evaluierung leitete zwei Erkenntnisse für die medizinische Anwendung ab. Für jeden Teil wird eine Lösung für die medizinische Visualisierung präsentiert. Eine neue Strichzeichnung für die Illustration von Oberflächen wird vorgestellt. Diese Technik wird dann aufgrund verschiedener Anforderungen für Moleküloberflächen erweitert. Im Bereich der Gefäßvisualisierung mit eingeschlossenem Blutfluss wird eine adaptive Visualisierungstechnik gezeigt. Dieser Algorithmus wird dann für animierte Blutflussdaten erweitert. Schließlich zeigt die vorliegende Dissertation verschiedene Visualisierungskonzepte, die in verschiedenen Anwendungsbereichen benutzt werden können um Oberflächeninformationen zu vermitteln.
- TextdokumentRessourceneffiziente Fehler- und Einbruchstoleranz(Ausgezeichnete Informatikdissertationen 2014, 2015) Distler, TobiasByzantinisch fehlertolerante Replikation erlaubt es, Systemen die Verfügbarkeit und Zuverlässigkeit von netzwerkbasierten Diensten sogar dann zu garantieren, wenn einige der Replikate, beispielsweise als Folge eines Einbruchs, willkürliches Fehlverhalten zeigen. Obwohl derartige Vorfälle bereits zu schwerwiegenden Dienstausfällen geführt haben, werden existierende Ansätze aus dem Bereich der byzantinischen Fehlertoleranz aufgrund ihres hohen Ressourcenbedarfs weiterhin kaum für den Produktiveinsatz genutzt. Diese Dissertation präsentiert Protokolle und Techniken zur Steigerung der Ressourceneffizienz von byzantinisch fehlertoleranten Systemen. Als Ausgangsbasis dient dabei jeweils die Verwendung zweier Betriebsmodi: Im Normalbetriebsmodus senkt ein System seinen Ressourcenverbrauch so weit, dass Fortschritt nur noch gewährleistet ist, solange sich alle Replikate korrekt verhalten. Im Fehlerbehandlungsmodus stehen dagegen zusätzliche Ressourcen zur Verfügung, um Fehler tolerieren zu können. Ein zentrales Resultat dieser Arbeit ist die Erkenntnis, dass passive Replikation ein effektives Mittel zur Implementierung eines ressourceneffizienten Normalbetriebsmodus darstellt. Darüber hinaus belegen Evaluierungsergebnisse, dass eine verbesserte Ressourceneffizienz auch zu einer Steigerung der Leistungsfähigkeit führen kann.
- TextdokumentEmergente Kollaborationsinfrastrukturen – Technologiegestaltung am Beispiel des inter-organisationalen Krisenmanagements(Ausgezeichnete Informatikdissertationen 2014, 2015) Reuter, ChristianAm Beispiel des Krisenmanagements untersucht die hier vorgestellte Dissertation die Herausforderungen und Möglichkeiten der Technologiegestaltung für emergente, d.h. dynamische und nicht vorhersehbare, Kontexte. Hierfür wird empirisch die kollaborative Arbeit von Polizei, Feuerwehr, Energienetzbetreibern und Bürgern im inter-organisationalen Katastrophenschutz erforscht, um exemplarische Kollaborationspraktiken zu ermitteln, die Limitationen der Arbeitsinfrastruktur aufdecken. Hierauf aufbauend werden neuartige Konzepte und IT-Artefakte gestaltet, implementiert und evaluiert, die emergente Kollaboration ermöglichen sollen. Neben der Erforschung potentieller organisationaler Effekte auf die Fähigkeit mit Emergenz umzugehen, werden methodische Implikationen für die Technologiegestaltung abgeleitet.
- TextdokumentSkalierbare Analyse von räumlichen Daten in großangelegten wissenschaftlichen Simulationen(Ausgezeichnete Informatikdissertationen 2014, 2015) Tauheed, FarhanDie Wissenschaft befindet sich heutzutage in einem radikalen Umbruch. Wissenschaftler müssen sich heute nicht mehr nur auf traditionelle wissenschaftliche Methoden des Experimentierens, dem entwickeln von Theorien und dem Testen von Hypothesen verlassen. Zusätzlich können sie heute auch massive Mengen von Daten analysieren um neue wissenschaftliche Erkenntnisse zu erlangen. Immer schnellere Hardware sowie immer genauere Sensoren ermöglichen ihnen das Sammeln von Daten, das Bauen von Modellen und das Simulieren von Naturphänomenen im großen Maßstab. Wissenschaftliche Entdeckungen in diesem Zusammenhang bedingen allerdings Algorithmen für die effiziente Analyse von massiven Datenmengen. Die heute enormen Datenmengen machen die Ausführung der notwendigen Analysen zu einer beispiellosen Herausforderung. Die Effizienz heutiger Algorithmen reicht nicht aus um die Datenmengen schnell genug zu analysieren und das Problem wird immer schlimmer da die Datenmengen rasant wachsen. Diese Doktorarbeit konzentriert sich auf die Trends des Datenwachstums in den Wissenschaften und wie diese Trends die Leistung von Analysealgorithmen beeinflussen. Eine interessante Entwicklung bezüglich wissenschaftlicher Daten ist, dass wenn Wissenschaftler die Datenmenge erhöhen, die Daten gleichzeitig auch komplexer werden, so dass bekannte Algorithmen ineffizient werden. Die "Komplexität" der Daten wird durch die Veränderung der Datencharakteristiken, wie beispielsweise Verteilung, Dichte und Auflösung verursacht. Die Zunahme der Komplexität verschlechtert die Effizienz bestehender Algorithmen wesentlich und, noch wichtiger, hemmt auch die Skalierbarkeit der Algorithmen. Diese Arbeit schlägt eine Methodik zur Entwicklung neuer Analysealgorithmen vor welche effizient sind und besser skalieren als existierende Methoden. Mit wissenschaftlichen Daten demonstrieren wir, dass Algorithmen die mit unserer Methodik entwickelt wurden nicht nur schneller als heutige Algorithmen sind, sondern auch, dass sie wesentlich besser mit Komplexität und Größe zukünftiger Datensätze skalieren.
- TextdokumentÜber die robuste räumliche Filterung von EEG in nichtstationären Umgebungen(Ausgezeichnete Informatikdissertationen 2014, 2015) Samek, WojciechDie üblichen Kommunikationsformen wie Sprache, Gestik oder Mimik erfordern eine gezielte Aktivierung der Muskulatur und können Patienten mit stark beeinträchtigter Motorik nicht (oder nur sehr eingeschränkt) zur Verfügung stehen. Gehirn-Computer-Schnittstellen ermöglichen Kommunikation durch reine Bewegungsvorstellung und stellen für diesen Personenkreis eine vielversprechende Alternative dar. Trotz einer rasanten Weiterentwicklungen in den letzten Jahren, sind heutige Systeme nur sehr begrenzt für den Einsatz außerhalb einer kontrollierten Laborumgebung – also im Alltag eines Patienten – geeignet. Ein limitierender Faktor ist die mangelnde Robustheit gegenüber starkem Signalrauschen, unerwarteten Artefakten und Nichtstationarität in den Daten. Die diesem Artikel zugrunde liegende Doktorarbeit widmet sich diesem Forschungsfeld und stellt neue Entwicklungen bei der räumlichen Filterung von Hirnsignalen, einem zentralen Schritt bei der Informationsverarbeitung in Gehirn-Computer-Schnittstellen, vor. Die Beiträge der Arbeit reichen von der Entwicklung neuartiger Regularisierungsstrategien für die räumliche Filterung bei Nichtstationarität über die Herleitung speziell auf die Daten abgestimmter robuster Parameterschätzverfahren bis hin zur Formulierung einer allgemeinen informationsgeometrischen Sichtweise auf die räumliche Filterung. Die vorgestellten Konzepte und Methoden finden weit über das Feld der Gehirn-Computer-Schnittstellen hinaus Anwendung und können zur Lösung verschiedener Probleme in der Informatik und Mathematik herangezogen werden.
- TextdokumentSchnelle, Effiziente und Energieeffiziente Algorithmen für moderne Prozessoren und Grafikkarten in der Hochenergiephysik und anderen Gebieten(Ausgezeichnete Informatikdissertationen 2014, 2015) Rohr, DavidGroße Rechenzentren und Supercomputer bilden Grundvoraussetzungen vieler rechenintensiver Gebiete aus Forschung und Industrie. Sie ermöglichen das schnellere Gewinnen besserer, genauerer und umfangreicherer Resultate sowie den effizienteren Einsatz der begrenzten Ressourcen. Bisher wurde der stetige Geschwindigkeitszuwachs unter anderem durch erhöhte Energieaufnahme erkauft. Heutige Rechenzentren erreichen mit einem Strombedarf von teils weit über zehn Megawatt den Punkt, an dem höhere Rechenleistung nur noch durch effizientere Hardware und Programmierung möglich ist. Diese Arbeit stellt in drei völlig unterschiedlichen Fachrichtungen (Datenanalyse in der Hochenergiephysik am CERN, Fehlertolerante Datenspeicherung und Lineare Algebra) Lösungen zu rechenintensiven, grundlegenden Problemen vor. Diese arbeiten durch effiziente Programmierung und Einsatz moderner paralleler Prozessoren sowie Beschleunigerkarten deutlich schneller und energieeffizienter als herkömmliche Methoden
- TextdokumentStandardisierung von Web APIs durch die Kombination der Prinzipien von REST und Linked Data(Ausgezeichnete Informatikdissertationen 2014, 2015) Lanthaler, MarkusUm die exponentiell wachsende Menge an Informationen weiterhin bewältigen zu können, tauschen immer mehr Systeme riesige Mengen an Daten aus und analysieren sowie bearbeiten diese völlig autonom. Zur Kommunikation werden dabei vorwiegend World Wide Web Technologien verwendet. Da jedoch grundlegende, standardisierte Technologien noch nicht existieren, sind Entwickler gezwungen eine Reihe komplexer Designentscheidungen zu treffen. Das Resultat sind in der Regel proprietäre Services die nur von spezialisierten Clients angesprochen werden können. Diese Dissertation erörtert die Probleme aktueller Web Services sowie entsprechender Semantic Web Technologien und beleuchtet den aktuellen Stand der Technik. Des Weiteren stellt sie die Ergebnisse meiner Forschung an Web APIs der dritten Generation vor. Die erarbeiteten Technologien wurden teilweise bereits als Standards vom World Wide Web Consortium ratifiziert und werden in von Millionen von Webseiten verwendet. Die Dissertation beschreibt nicht nur wie die erarbeiteten Lösungen zum Design und zur Implementierung von Services genutzt werden können, sondern evaluiert auch ihre Praxistauglichkeit die mittlerweile auch durch die weite Akzeptanz bewiesen wurde.