D09 (2010) - Ausgezeichnete Informatikdissertationen
Dorothea Wagner et al. (Hrsg.)
GI-Edition - Lecture Notes in Informatics (LNI), D-10
Bonner Köllen Verlag (2010)
Autor*innen mit den meisten Dokumenten
Neueste Veröffentlichungen
- TextdokumentVom Suchen und Finden funktioneller Module in biologischen Netzwerken: Ein neuer Ansatz zur integrierten Netzwerkanalyse in der Systembiologie(Ausgezeichnete Informatikdissertationen 2008, 2009) Dittrich, MarcusDie funktionelle Analyse großer Interaktionsnetzwerke hat sich in den vergangenen Jahren zu einem wichtigen Kerngebiet der Bioinformatik und Systembiologie entwickelt. Hier wird ein neuer, verbesserter Ansatz zur Identifizierung funktioneller Module in großen biologischen Netzwerken präsentiert. Der vorgestellte Ansatz wurde anhand eines gut untersuchten Satzes von Microarray- und Survival-Daten von Lymphoma-Patienten im Kontext von Protein-Protein-Netzwerken entwickelt und getestet. Zur Kombination der funktionellen Daten mit dem Netzwerk wurde eine flexible Gewichtungsfunktion hergeleitet und damit jedes Protein im Netzwerk gewichtet. Dies ermöglicht es nun, die Suche nach funktionellen Modulen im graphentheoretischen Sinne als Suche nach dem Subgraphen mit maximalem Gewicht zu formulieren. Durch die explizite Modellierung des Signal- und Rauschanteils liefert die Methode zugleich eine quantitative Abschätzung des Informationsgehaltes und erlaubt es, die erwartete Anzahl falsch-positiver Knoten im resultierenden Subnetzwerk zu kontrollieren. Die Anwendung dieses Algorithmus auf das Netzwerk zeigt, dass sich damit bekannte medizinisch relevante Module wiederfinden und ergänzen lassen. Intensive Simulationsexperimente belegen, dass dieser exakte Ansatz deutlich bessere Ergebnisse liefert als bereits beschriebene heuristische Methoden.
- TextdokumentBildsuche, Objekterkennung und Diskriminative Modelle(Ausgezeichnete Informatikdissertationen 2008, 2009) Deselaers, ThomasIn der hier vorgestellten Dissertation [Des08] werden drei Themenbereiche bearbeitet, die sich mit der automatischen Suche bzw. dem automatischen Erkennen von Bildern befassen. Im ersten Teil wird die Suche nach Bildern in einer Bilddatenbank untersucht. Dabei wird ein besonderer Schwerpunkt auf die inhaltsbasierte Bildsuche gelegt. Weiterhin wird untersucht, wie dies mit textuellen Bildannotationen kombiniert werden kann. Es wird ein System entwickelt, in dem sich beliebige Informationsquellen zur Bildsuche gemeinsam verarbeiten lassen. Im zweiten Teil werden verschiedene Modelle vorgestellt, um Objekte in Bildern anhand lokaler Eigenschaften zu erkennen. Insbesondere wird bei der Entwicklung der Methoden darauf geachtet, Heuristiken zu vermeiden und alle verfügbaren Informationsquellen einzubeziehen, um zu einem sauberen Modell zu gelangen. Das entwickelte Modell kommt fast vollständig ohne Heuristiken aus, ist kleiner und somit einfacher anzuwenden und zu trainieren als vergleichbare Modelle. Die erzielten Ergebnisse sind vergleichbar oder besser als der Stand der Forschung. Im dritten Teil werden einige Ideen aus der Modellierung in der Objekterkennung aufgegriffen, weitergehend untersucht und für die Erkennung handgeschriebener Ziffern verfeinert. Das daraus resultierende Modell erlaubt erstmals neben den üblichen Modellparametern, auch die Verformungsparameter geschlossen zu trainieren. In allen drei Bereichen werden die entwickelten Methoden quantitativ auf Standarddatensätzen evaluiert und mit dem Stand der Technik verglichen. Dabei zeigt sich, dass die erzielten Ergebnisse mit denen in der Literatur vergleichbar sind oder diese übertreffen. In dieser Arbeit werden einige der Methoden aus dem zweiten Bereich vorgestellt und ein kurzer Ausblick auf die beiden anderen Bereiche gegeben.
- TextdokumentCorA: Eine Koordinationsarchitektur für Kollaboration unter mobilen Benutzern(Ausgezeichnete Informatikdissertationen 2008, 2009) Bortenschlager, ManfredTrotz wesentlicher Fortschritte in vielen Bereichen der Informationstechnologie (IT) sind die gegenwärtigen Unterstützungsmöglichkeiten für kollaborative Tätigkeiten mobiler Benutzer unzureichend. Eine adäquatere Unterstützung würde allerdings die Prozesse – beispielsweise bei der Kollaboration von mobilen Einsatzkräften im Notfallmanagement – wesentlich verbessern. Dabei ist Kollaboration maßgeblich von der Koordination abhängig. In diesem Beitrag wird der Ansatz vorgestellt, Mechanismen aus der Koordinationstheorie explizit in einer IT-Infrastruktur zur Unterstützung der Kollaboration mobiler Benutzer umzusetzen. Es wird gezeigt, wie sowohl bestehende Prozesse verbessert, als auch neue Möglichkeiten eröffnet werden können.
- TextdokumentAn Efficient and Flexible Implementation of Aspect-Oriented Languages(Ausgezeichnete Informatikdissertationen 2008, 2009) Bockisch, ChristophAspekt-orientierte Programmiersprachen werden zunehmend in der Industrie eingesetzt, da sie die Strukturierung des Quellcodes und damit dessen Wartbarkeit verbessern. Implementierungen dieser Sprachen compilieren den Quelltext allerdings zu einer Intermediate-Repräsentation, die nicht auf Aspekt-orientierte Sprach-Konzepte ausgerichtet ist, wodurch effiziente Laufzeit-Optimierungen für diese verhindert werden, wie sie für Objekt-orientierte Sprache-Konzepte üblich sind. In dieser Arbeit wird eine Architektur für die Implementierung Aspekt-orientierter Sprachen vorgeschlagen, die deren Konzepte in der Intermediate-Repräsentation erhält. Darauf aufbauend wurden spezielle Laufzeit-Optimierungen für Aspekt-orientierte Konzepte entwickelt, die deren Effizienz bis zu 1000-fach gegenüber existierenden Implementierungen Aspekt-orientierter Sprachen steigern.
- TextdokumentComputing Crossing Numbers: Berechnen von Kreuzungszahlen(Ausgezeichnete Informatikdissertationen 2008, 2009) Chimani, MarkusIn diesem Artikel betrachten wir das Problem der sogenannten Kreuzungszahl eines Graphen, d.h. die Anzahl von Kantenkreuzungen die unbedingt notwendig ist wenn man einen Graphen zeichnet. Das Problem ist NP-schwer und hat sich in den letzten Jahrzehnten auch als äußerst herausfordernd aus Sicht der graphentheoretischen und algorithmischen Forschung, sowie der Praxis, herausgestellt. Dennoch zeigen wir, dass sich Verfahren entwickeln lassen, die das Problem für viele praxisrelevante Graphen in annehmbarer Zeit beweisbar optimal lösen. Der Schlüssel dazu ist eine geschickte Kombination aus Graphentheorie, kombinatorischer Algorithmik, sowie algebraischen Methoden, insbesondere der Mathematischen Programmierung.
- TextdokumentGenerierung Relevanter Testdatenbanken(Ausgezeichnete Informatikdissertationen 2008, 2009) Binnig, CarstenIn heutigen Softwareentwicklungsprojekten ist das Testen eine der kosten- und zeitintensivsten Tätigkeiten. Wie ein aktueller Bericht des NIST [RTI02] zeigt, verursachten Softwarefehler in den USA im Jahr 2000 zwischen 22, 2 und 59, 5 Milliarden Dollar an Kosten. Demzufolge wurden in den letzten Jahren verschiedene Methoden und Werkzeuge entwickelt, um diese hohen Kosten zu reduzieren. Viele dieser Werkzeuge dienen dazu die verschiedenen Testaufgaben (z.B. das Erzeugen von Testfällen, die Ausführung von Testfällen und das Überprüfen der Testergebnisse) zu automatisieren. Jedoch existieren nur wenige Forschungsarbeiten zur Automatisierung der Tests von Datenbankanwendungen (wie z.B. eines E-Shops) bzw. von relationalen Datenbankmanagementsystemen (DBMS). Die diesem Artikel zugrunde liegende Doktorarbeit diskutiert ein wichtiges Problem aus diesem Bereich: Die Generierung von Testdatenbanken. Zur Erzeugung einer Testdatenbank existieren verschiedene Forschungsprototypen sowie auch kommerzielle Datenbankgeneratoren. Jedoch sind dies meist Universallösungen, welche die Testdatenbanken unabhängig von den auszuführenden Testfällen erzeugen. Demzufolge weisen die generierten Testdatenbanken meist nicht die notwendigen Datencharakteristika auf, die zur Ausführung bestimmter Testfälle notwendig sind. Im Gegensatz zu diesen Werkzeugen beschreibt dieser Artikel innovative Ansätze, die zur Generierung von relevanten Testdatenbanken dienen. Die generelle Idee ist, dass der Benutzer explizit für einen oder mehrere Testfälle die notwendigen Bedingungen an die Testdaten deklarativ formulieren kann. Diese Bedingungen werden dann dazu genutzt, um eine Testdatenbank zu generieren, die die gewünschten Datencharakteristika aufweist, welche zur Ausführung der Testfälle notwendig sind.
- TextdokumentPhoto-Realistic Rendering of Fiber Assemblies(Ausgezeichnete Informatikdissertationen 2008, 2009) Zinke, ArnoDie realistische Visualisierung von Frisuren und anderen Faserkollektionen stellt aufgrund der damit verbundenen geometrischen und optischen Komplexität eine große Herausforderung der Computergrafik da. Im Rahmen dieser Arbeit wurde eine neuartiges Framework zur formalen Beschreibung der Lichtstreuung an Fasern entwickelt, welches als Basis für effiziente Renderingtechniken dient. Darüber hinaus wurde am Beispiel von Humnhaar untersucht, inwieweit sich optisch relevante Parameter natürlicher Fasern aus Bilddaten abschätzen lassen.
- TextdokumentDokumentverifikation mit Temporaler Beschreibungslogik(Ausgezeichnete Informatikdissertationen 2008, 2009) Weitl, FranzEs wird ein neues formales Framework für die automatische Prüfung inhaltlich-struktureller Vorgaben an Dokumente vorgestellt. Aus der Hard- /Softwareverifikation bekannte Model-Checking Verfahren werden mit Methoden zur Repräsentation von Ontologien kombiniert, um sowohl die Struktur des Dokuments als auch inhaltliche Zusammenhänge bei der Prüfung von Konsistenzkriterien berück- sichtigen zu können. Als Spezifikationssprache für Konsistenzkriterien wird die neue temporale Beschreibungslogik ALCCTL vorgeschlagen. Grundlegende Eigenschaften wie Entscheidbarkeit, Ausdruckskraft und Komplexität werden untersucht. Die Ergebnisse übertreffen bekannte Ansätze wie symbolisches Model-Checking in Performanz und Ausdruckskraft hinsichtlich der prüfbaren Kriterien.
- TextdokumentExtraktion topologischer Strukturen von 2D- und 3D-Vektorfeldern(Ausgezeichnete Informatikdissertationen 2008, 2009) Weinkauf, TinoDie Analyse von großen und hochdimensionalen Simulationsdaten stellt eine Herausforderung dar, bei der sich die Verwendung von automatisierbaren Werkzeugen bewährt hat, die eine Konzentration auf die wesentlichen Informationen erlauben. Topologische Analyseverfahren erlauben eine zielorientierte Untersuchung der relevantesten Strukturen in einem Datensatz. In diesem Artikel werden neue Algorithmen und Ansätze zur Extraktion, zeitlichen Verfolgung und Visualisierung von topologischen Strukturen in Vektorfeldern vorgestellt. Zur vereinfachten Darstellung topologischer Skelette von komplexen 3D Vektorfeldern wurde das neue Konzept der Konnektoren entwickelt. Die erste Visualisierungstechnik für 3D kritische Punkte höherer Ordnung und die zugehörige Klassifikation werden vorgestellt. Auf Basis dieser Theorie wurden zwei neue Anwendungen zur topologischen Simplifizierung und Konstruktion von 3D Vektorfeldern entwickelt. Desweiteren wird der erste generische Ansatz zur Extraktion von Merkmalen vorgestellt, der es erlaubt, eine Vielzahl von geometrisch definierten, lokalen und globalen Merkmalen in Skalar- und Vektorfeldern zu extrahieren und zeitlich zu verfolgen. Die Verwendung generischer Konzepte und gitterunabhängiger Algorithmen zielt auf eine breite Anwendbarkeit der Methoden bei gleichzeitig vergleichsweise geringem Implementationsaufwand. Zu den weiteren Beiträgen der vorgestellten Dissertation gehören der erste topologiebasierte Ansatz zur Visualisierung von zwei-parameterabhängigen 2D Vektorfeldern und eine umfassende Studie von Wirbelstrukturen. Die in diesem Artikel vorgestellte Dissertation wurde an der Fakultät für Informatik der Universität Magdeburg verteidigt und die vorgestellten Arbeiten in begutachteten internationalen Konferenzbänden, Zeitschriften und Büchern veröffentlicht.
- TextdokumentEvaluation von Internetwahlsystemen(Ausgezeichnete Informatikdissertationen 2008, 2009) Volkamer, MelanieSeit einiger Zeit wird unsere Gesellschaft immer mobiler. Durch den Einsatz des Internets bei Wahlen kann diesem Wandel Rechnung getragen werden. Damit die Demokratie durch Internetwahlen nicht gefährdet wird, müssen die entsprechenden Systeme positiv evaluiert werden. Hierzu wird ein standardisierter, umfassender und in sich konsistenter sowie produktunabhängiger Anforderungs- und Evaluierungskatalog entwickelt, der auf der Methodik der Common Criteria beruht. Dieser Katalog wird auf existierende Systeme angewendet. Eine dabei aufgedeckte Schwachstelle der Common Criteria wird durch einen eigenen Ansatz geschlossen.