D09 (2010) - Ausgezeichnete Informatikdissertationen
Dorothea Wagner et al. (Hrsg.)
GI-Edition - Lecture Notes in Informatics (LNI), D-10
Bonner Köllen Verlag (2010)
Auflistung D09 (2010) - Ausgezeichnete Informatikdissertationen nach Erscheinungsdatum
1 - 10 von 36
Treffer pro Seite
Sortieroptionen
- TextdokumentSynthese Verteilter Systeme(Ausgezeichnete Informatikdissertationen 2008, 2009) Schewe, SvenVerteilte und parallele Systeme haben einen stetig wachsenden Einfluß auf unser Leben, ob versteckt, wie in der Steuerung unseres Airbags oder ABS, oder offen, wie in Transaktionssystemen. Fehlerhafte Systeme gefährden oft Leben oder Gesundheit und können erhebliche Kosten verursachen. Für die Informatik ergibt sich daraus das zentrale Ziel, eine mathematische Fundierung für die Entwicklung solcher Systeme zu schaffen. Die vorgestellte Arbeit liefert hierzu einen zentralen Beitrag: Sie löst das Syntheseproblem für verteilte Systeme. Synthese ist das klassische Wunschziel der Informatik, eine Implementierung automatisch aus ihrer Spezifikation abzuleiten. Die Wurzeln des Syntheseproblems für verteilte Systeme reichen ein halbes Jahrhundert auf Alonzo Churchs berühmtes Lösbarkeitsproblem zurück. Die vielen seit damals entstandenen Arbeiten bieten Lösungsansätze für spezielle Systemarchitekturen, etwa Pipelines oder Ringe, und eingeschränkte Spezifikationssprachen wie zum Beispiel temporale Logiken; gleichzeitig wurde für einzelne Architekturen gezeigt, dass verteilte Synthese unentscheidbar ist. Aber die fundamentale Frage nach den tieferen Ursachen für die Unentscheidbarkeit, und eine damit mögliche Charakterisierung aller Systemarchitekturen, für die das Syntheseproblem grundsätzlich lösbar ist, blieb offen. Meine Dissertation gibt eine vollständige Charakterisierung der Systemarchitekturen, für die automatische Synthese möglich ist, das Information-Fork Kriterium, und stellt eine uniforme Entscheidungsprozedur für alle entscheidbaren Fälle vor.
- TextdokumentDokumentverifikation mit Temporaler Beschreibungslogik(Ausgezeichnete Informatikdissertationen 2008, 2009) Weitl, FranzEs wird ein neues formales Framework für die automatische Prüfung inhaltlich-struktureller Vorgaben an Dokumente vorgestellt. Aus der Hard- /Softwareverifikation bekannte Model-Checking Verfahren werden mit Methoden zur Repräsentation von Ontologien kombiniert, um sowohl die Struktur des Dokuments als auch inhaltliche Zusammenhänge bei der Prüfung von Konsistenzkriterien berück- sichtigen zu können. Als Spezifikationssprache für Konsistenzkriterien wird die neue temporale Beschreibungslogik ALCCTL vorgeschlagen. Grundlegende Eigenschaften wie Entscheidbarkeit, Ausdruckskraft und Komplexität werden untersucht. Die Ergebnisse übertreffen bekannte Ansätze wie symbolisches Model-Checking in Performanz und Ausdruckskraft hinsichtlich der prüfbaren Kriterien.
- TextdokumentAn Efficient and Flexible Implementation of Aspect-Oriented Languages(Ausgezeichnete Informatikdissertationen 2008, 2009) Bockisch, ChristophAspekt-orientierte Programmiersprachen werden zunehmend in der Industrie eingesetzt, da sie die Strukturierung des Quellcodes und damit dessen Wartbarkeit verbessern. Implementierungen dieser Sprachen compilieren den Quelltext allerdings zu einer Intermediate-Repräsentation, die nicht auf Aspekt-orientierte Sprach-Konzepte ausgerichtet ist, wodurch effiziente Laufzeit-Optimierungen für diese verhindert werden, wie sie für Objekt-orientierte Sprache-Konzepte üblich sind. In dieser Arbeit wird eine Architektur für die Implementierung Aspekt-orientierter Sprachen vorgeschlagen, die deren Konzepte in der Intermediate-Repräsentation erhält. Darauf aufbauend wurden spezielle Laufzeit-Optimierungen für Aspekt-orientierte Konzepte entwickelt, die deren Effizienz bis zu 1000-fach gegenüber existierenden Implementierungen Aspekt-orientierter Sprachen steigern.
- TextdokumentEreignisgesteuerte Ausfallvorhersage: Ein Mustererkennungs-Ansatz(Ausgezeichnete Informatikdissertationen 2008, 2009) Salfner, FelixMit "Proactive Fault Management" werden Fehlertoleranzverfahren bezeichnet, die versuchen, auf drohende Systemausfälle bereits zu reagieren, noch ehe der Ausfall wirklich aufgetreten ist. In dieser Arbeit wird ein Verfahren zur Vorhersage von Ausfällen vorgestellt, das auf der Erkennung von Fehlermustern basiert. Die Vorhersage basiert auf einer Erweiterung von Hidden-Markov-Modellen zu Hidden-Semi-Markov-Modellen, die es ermöglicht, die Zeit zwischen zwei aufgetretenen Fehlern in die Vorhersage mit einzubeziehen. Experimente mit Daten einer kommerziellen Telekommunikationsplattform haben gezeigt, dass das Verfahren eine wesentlich genauere Vorhersage als die bislang bekannten Verfahren ermöglicht und so die Grundlage für eine neue Generation von Fehlertoleranzmechanismen schafft.
- Textdokument
- TextdokumentComputing Crossing Numbers: Berechnen von Kreuzungszahlen(Ausgezeichnete Informatikdissertationen 2008, 2009) Chimani, MarkusIn diesem Artikel betrachten wir das Problem der sogenannten Kreuzungszahl eines Graphen, d.h. die Anzahl von Kantenkreuzungen die unbedingt notwendig ist wenn man einen Graphen zeichnet. Das Problem ist NP-schwer und hat sich in den letzten Jahrzehnten auch als äußerst herausfordernd aus Sicht der graphentheoretischen und algorithmischen Forschung, sowie der Praxis, herausgestellt. Dennoch zeigen wir, dass sich Verfahren entwickeln lassen, die das Problem für viele praxisrelevante Graphen in annehmbarer Zeit beweisbar optimal lösen. Der Schlüssel dazu ist eine geschickte Kombination aus Graphentheorie, kombinatorischer Algorithmik, sowie algebraischen Methoden, insbesondere der Mathematischen Programmierung.
- TextdokumentRandomisierte Protokolle für die Verteilung von Information(Ausgezeichnete Informatikdissertationen 2008, 2009) Sauerwald, ThomasDie in diesem Beitrag zusammengefasste Dissertation befaßt sich mit der Entwicklung und Analyse von zufälligen Algorithmen für das Verteilen von Information in Netzwerken. Zunächst wird das Problem der Verbreitung von Nachrichten (Rumor Spreading) betrachtet. Wir analysieren zunächst eine klassische, vollständig zufällige Variante (Randomized Rumor Spreading) und geben für verschiedene untersuchte Graphklassen verbesserte Laufzeitschranken an. Zudem untersuchen wir die Beziehung von Randomized Rumor Spreading und Irrfahrten. Wir geben zwei Parameter von Irrfahrten an, mit denen sich die Laufzeit von Randomized Rumor Spreading sowohl nach oben als auch nach unten abschätzen lässt. Neben der Analyse von diesen klassischen Algorithmen entwickeln wir auch eine neue Variante für das Verteilen von Nachrichten. Überraschenderweise können wir zeigen, daß diese neue Variante trotz reduzierten Zufalls dieselben oder sogar leicht bessere Ergebnisse als die klassische Variante erzielt. Schließlich beschäftigen wir uns mit der Balancierung von Lasteinheiten. Wir geben ein sehr einfaches Netzwerk an, das unter Zuhilfenahme von Zufall beliebige Eingangslasten bis auf einen kleinen additiven Faktor balanciert. Hierbei ist die benötigte Zeit nahezu optimal und gleichzeitig der additive Faktor unabhängig von der Gesamtlast und der initialen Balanciertheit.
- TextdokumentInformationsverarbeitung im Informationsmanagement: Modellierung von Aufgaben und verarbeiteten Informationen am Beispiel der Information Technology Infrastructure Library (ITIL)(Ausgezeichnete Informatikdissertationen 2008, 2009) Ißler, LutzDas Informationsmanagement im Gesundheitswesen entwickelt Informationssysteme von Krankenhäusern und medizinischen Organisationen weiter. Dazu benötigt es Informationen, die ihm vom Informationsmanagement-Informationssystem (IMIS) bereitgestellt werden. Dieses IMIS muss ebenfalls zielgerichtet weiterentwickelt werden. Die Grundlage für die Bewertung und Konstruktion eines IMIS ist ein Modell der Informationsverarbeitung im Informationsmanagement. Diese Arbeit entwickelt eine Formalisierung der Informationsverarbeitung und darauf aufbauend Kriterien für Modelle der Informationsverarbeitung im Informationsmanagement im Gesundheitswesen sowie Modellierungsregeln und ein Vorgehen zur Modellierung. Die Angemessenheit der entwickelten Formalisierung und der Kriterien, der Regeln und des Vorgehens zeigt der Autor mit der Modellierung der Informationsverarbeitung in den neun Kernprozessen der Information Technology Infrastructure Library (ITIL), einer Sammlung von Empfehlungen für das Management von IT-Dienstleistungen. Aufbauend auf einer erweiterten Version dieses Modells kann ein IMIS für das Gesundheitswesen konstruiert werden.
- TextdokumentAutomatisierte Programmierung von Robotern für Montageaufgaben(Ausgezeichnete Informatikdissertationen 2008, 2009) Thomas, UlrikeIn dieser Arbeit wird eine automatisierte Prozesskette von der Spezifikation der Montageaufgaben über die Planung der Montagereihenfolgen bis hin zur Planung elementarer sensorbasierter feiner Roboterbewegungen vorgestellt. Als Eingaben dienen sehr genau modellierte zu montierende Objekte in Form von CAD-Daten und die durch den Anwender ausgewählten symbolisch-räumlichen Relationen. Aus dieser Spezifikation werden durch das hier vorgestellte neue Montageplanungssystem Montagereihenfolgen generiert und unter Berücksichtigung verschiedener Kriterien bewertet. Für die Ausführung der berechneten Pläne muss jede darin enthaltende Montageaufgabe in elementare Roboteranweisungen, so genannte Aktionsprimitive, umgesetzt werden. Hierfür wird ein neuer Algorithmus vorgestellt. Insgesamt ermöglichen die hier vorgestellten Verfahren eine automatisierte Programmierung von Robotern für Montageaufgaben.
- TextdokumentVom Suchen und Finden funktioneller Module in biologischen Netzwerken: Ein neuer Ansatz zur integrierten Netzwerkanalyse in der Systembiologie(Ausgezeichnete Informatikdissertationen 2008, 2009) Dittrich, MarcusDie funktionelle Analyse großer Interaktionsnetzwerke hat sich in den vergangenen Jahren zu einem wichtigen Kerngebiet der Bioinformatik und Systembiologie entwickelt. Hier wird ein neuer, verbesserter Ansatz zur Identifizierung funktioneller Module in großen biologischen Netzwerken präsentiert. Der vorgestellte Ansatz wurde anhand eines gut untersuchten Satzes von Microarray- und Survival-Daten von Lymphoma-Patienten im Kontext von Protein-Protein-Netzwerken entwickelt und getestet. Zur Kombination der funktionellen Daten mit dem Netzwerk wurde eine flexible Gewichtungsfunktion hergeleitet und damit jedes Protein im Netzwerk gewichtet. Dies ermöglicht es nun, die Suche nach funktionellen Modulen im graphentheoretischen Sinne als Suche nach dem Subgraphen mit maximalem Gewicht zu formulieren. Durch die explizite Modellierung des Signal- und Rauschanteils liefert die Methode zugleich eine quantitative Abschätzung des Informationsgehaltes und erlaubt es, die erwartete Anzahl falsch-positiver Knoten im resultierenden Subnetzwerk zu kontrollieren. Die Anwendung dieses Algorithmus auf das Netzwerk zeigt, dass sich damit bekannte medizinisch relevante Module wiederfinden und ergänzen lassen. Intensive Simulationsexperimente belegen, dass dieser exakte Ansatz deutlich bessere Ergebnisse liefert als bereits beschriebene heuristische Methoden.