D07 (2006) - Ausgezeichnete Informatikdissertationen
Dorothea Wagner et al. (Hrsg.)
GI-Edition - Lecture Notes in Informatics (LNI), D-7
Bonner Köllen Verlag (2006)
Auflistung D07 (2006) - Ausgezeichnete Informatikdissertationen nach Titel
1 - 10 von 22
Treffer pro Seite
Sortieroptionen
- TextdokumentDas 3d-Puzzle-Problem - Effiziente Methoden zum paarweisen Zusammensetzen von dreidimensionalen Fragmenten(Ausgezeichnete Informatikdissertationen 2006, 2007) Winkelbach, SimonDas automatische Zusammenfügen von dreidimensionalen Objekten aus Einzelteilen (3d-Puzzle-Problem) ist in vielen wichtigen Forschungs- und Anwen- dungsbereichen von hoher Relevanz. In diesen Bereichen können insbesondere durch Methoden der Informatik und der 3d-Bildverarbeitung substanzielle Fortschritte er- zielt werden. Diese Arbeit gibt einen Überblick über die gesamte Prozesskette von der Datenakquisition, über die allgemeine Registrierung von Oberflächen, bis hin zu speziellen Anforderungen beim Zusammensetzen von Fragmenten in unterschiedlichen Anwendungsfällen. Insbesondere werden neuartige Ansätze vorgestellt, mit denen Fragmentoberflächen auf äußerst effiziente Weise und ohne Wissen über eine Initiallösung automatisch zusammengefügt werden können. Hierbei wird eine hohe Robustheit gegenüber Messungenauigkeiten, Fragmentschädigungen und Materialverschleiß erreicht. Darüber hinaus gelingt es, durch Ausnutzung von Symmetrieebenen und Achsen gebrochene Oberschenkel- und Beckenknochen virtuell zusammenzufügen und somit einen wichtigen Baustein für die computerassistierte Frakturbehandlung in der Chirurgie zu schaffen.
- TextdokumentA GPU framework for interactive simulation and rendering of fluid effects(Ausgezeichnete Informatikdissertationen 2006, 2007) Krüger, JensZiel dieser Arbeit ist die Entwicklung von Konzepten und Methoden zur interaktiven visuellen Simulation von Fluid-Phänomenen auf PC-Grafikkarten (GPUs). Für die numerische Simulation auf GPUs wurde eine GPU-Abstraktionsschicht entwickelt, die Operatoren für Lineare Algebra bereitstellt. Damit wurden komplexere Algorithmen, z.B. Löser für große lineare Gleichungssysteme, realisiert und zur effizienten numerischen Lösung von Differentialgleichungen auf der GPU verwendet. Zur Modellierung von Strömungsstrukturen wurden neue Interaktionstechniken entwickelt. Für die Darstellung der dynamischen Phänomene wurden partikelund texturbasierte Volume-Rendering-Techniken erforscht. Durch das Zusammenspiel mit der Simulation auf der GPU lassen sich realistische 3D-Effekte sehr schnell generieren und visualisieren (s. Abbildung 1) Abbildung 1: Eine Auswahl von Fluid-Phänomenen auf PC-Grafikkarten. Alle diese Bilder wurden auf heutiger Standardhardware in Echtzeit sowohl simuliert als auch dargestellt.
- TextdokumentAdvanced visualization and modeling of tetrahedral meshes(Ausgezeichnete Informatikdissertationen 2006, 2007) Frank, TobiasTetraedergitter gewinnen immer mehr an Bedeutung für technische und naturwissenschaftliche Anwendungen. Die vorliegende Arbeit stellt neue Algorithmen für das Erstellen von komplexen impliziten Modellen - basierend auf Tetraedergittern - und deren effiziente Visualisierung vor. Zum Modellieren wurde ein neuartiger Algorithmus zur Oberflächenrekonstruktion von komplexen 3D-Flächen aus schlecht konditionierten Daten, wie sie oft in naturwissenschaftlichen Anwendungen auftreten, entwickelt. Dabei kann die Fläche begrenzt sein und Unstetigkeiten aufweisen. Des Weiteren wurde im Rahmen dieser Arbeit eine innovative Methode zur intuitiven Echtzeit-Manipulation von implizit definierten Objekten erarbeitet. Die Manipulation erfolgt interaktiv direkt am 3D-Volumenmodell. Die Visualisierung besteht aus einer generischen Architektur zur Informationsgewinnung und Interpretation mittels Co-Visualisierung diverser Attribute und Booleschen Operatoren der Constructive So- lid Geometry mit konstanter Komplexität.
- TextdokumentAlgorithm design techniques for parameterized graph modification problems(Ausgezeichnete Informatikdissertationen 2006, 2007) Guo, JiongMeine Dissertation ”Algorithm DesignTechniques for Parameterized Graph Modification Problems“ untersucht die Anwendbarkeit von vier Techniken zur En- twicklung parametrisierter Algorithmen für Graphmodifikationsproblemen. Dies sind zwei klassische Techniken, nämlich Datenreduktion und tiefenbeschränkte Suchbäume, und zwei neue Techniken, nämlich iterative Kompression und Parametrisierung bzgl. der Distanz zu einer ”schnell“ lösbaren Instanz.
- TextdokumentAlgorithms for dynamic geometric data streams(Ausgezeichnete Informatikdissertationen 2006, 2007) Frahling, GereonDie zunehmende Vernetzung moderner Computersysteme produziert gewaltige Datenmengen, deren Behandlung die heutige Informatik vor unzählige Probleme stellt. Traditionelle Algorithmen, deren Laufzeit zu stark von der Größe der Daten abhängt, sind häufig nicht anwendbar. Oft sind die Eingabedaten sogar zu groß für die verfügbaren Speichermedien. Wir stellen neue, grundlegende Algorithmen zur Analyse gewaltiger Datenmengen vor, die unter minimalen Anforderungen an den Speicher der Computersysteme beweisbar gute Zusammenfassungen der Daten berechnen. Zunächst erarbeiten wir grundlegende Ergebnisse zum Ziehen von Stichproben aus dynamischen Datenströmen. Mit Hilfe dieser Stichproben können vielfältige Aussagen über die Eingabedaten getroffen werden, was wir anhand von Beispielen beweisen. Anschließend wenden wir uns dem Clustering gewaltiger Datensätze zu. Wir entwickeln eine Methode, große Datenmengen zu sogenannten Coresets zusammenzufassen. Die Methode erzeugt beweisbar k-meansund k-median-Clusterings mit beliebig guter Approximationsgarantie und ist anwendbar in vielen verschiedenen Modellen: Die Clusterings können mit wenig Speicher für dynamische Datenströme berechnet werden, sie lassen sich in sublinearer Zeit durch Bereichsanfragen erstellen, und auch sich bewegende Punkte können effizient zusammengefasst werden. Eine Implementierung zeigt, dass die Methode auf großen realen Testdaten gute Clusterings deutlich schneller berechnen kann als häufig angewendete traditionelle Algorithmen. Schließlich beschäftigen wir uns mit der Analyse der Struktur von großen Graphen wie dem Webgraph. Wir entwickeln neue Methoden, um die Anzahl von Teilgraphen (z.B. Dreiecken) eines Graphen zu zählen, der als Datenstrom von Kanten gegeben ist.
- TextdokumentEffiziente Codierungen für SOAP-Nachrichten(Ausgezeichnete Informatikdissertationen 2006, 2007) Werner, ChristianWeb Services konnten sich in den letzten Jahren als universelle Middleware-Technologie in vielen Bereichen der Informatik etablieren. Durch den konsequenten Einsatz von Web-Standards – zu nennen ist hier vor allem XML – ermöglichen Web Services die Realisierung von verteilten Anwendungen auch in stark heterogenen Umgebungen. Allerdings bringt der durchgängige Einsatz von XML auch einen erheblichen Nachteil mit sich: Die Darstellung aller Daten als Text verursacht im Vergleich zu älteren Middleware-Technologien mit binärer Datenrepräsentation (z. B. CORBA oder Java RMI) ein deutlich höheres Datenaufkommen. Zwar spielt dieser Nachteil bei mo- dernen, drahtgebundenen Netzwerken kaum noch eine Rolle, denn hier reicht die zur Verfügung stehende Datenrate in aller Regel aus; in Anwendungsfeldern aber, in denen die Kommunikation u ̈ber eine Funkschnittstelle erfolgt, konnte sich die Web-Service- Technologie bislang nicht durchsetzen. Um Web Services auch hier effizient implementieren zu können, hat der Autor im Rahmen seiner Dissertation verschiedene Konzepte zur Reduzierung des Datenaufkommens bei der Web-Service-Kommunikation untersucht. Im folgenden Beitrag fasst er die wichtigsten Ergebnisse seiner Dissertati- on zusammen.
- TextdokumentErkennung und vermeidung von unkooperativem verhalten in peer-to-peer-datenstrukturen(Ausgezeichnete Informatikdissertationen 2006, 2007) Buchmann, ErikPeer-to-Peer (P2P)-Datenstrukturen (auch bekannt als P2P-Overlays oder Strukturierte P2P-Netzwerke) sind in der Lage, riesige Bestände an (Schlüssel,Wert)- Paaren effizient zu verwalten und dabei viele parallele Abfragen zu unterstützen. Dies wird erreicht, indem Datenbestand und Anfragelast auf alle Teilnehmer des Systems verteilt werden. Vorschläge für P2P-Datenstrukturen gehen davon aus, dass die Peers ihren Teil der Anfragelast stets protokollgerecht verarbeiten. Für rationale Peers besteht die ökonomisch dominante Verhaltensweise jedoch darin, Anfragen anderer Teilnehmer nicht zu verarbeiten, sich also unkooperativ zu verhalten. Existierende Vorschläge zum Um- gang mit unkooperativen Teilnehmern skalieren zumeist schlechter als die P2P-Datenstruktur selbst, lassen sich angreifen oder umgehen, oder basieren auf Annahmen, die einen Einsatz in der Praxis nicht zulassen. Im Rahmen dieses Beitrags wird FairNet vorgestellt, ein Protokoll, das unkooperatives Verhalten ökonomisch unattraktiv macht. FairNet beruht darauf, dass topologisch benachbarte Peers nachvollziehbare Beobachtungen über geleistete oder verweigerte Arbeit austauschen. Peers, über die zu wenige positive Beobachtungen vorliegen, müssen einen Arbeitsbeweis erbringen, bevor sie am P2P-Netz partizipieren können. Das Protokoll führt dabei zur Entstehung von logischen transitiven Netzen von kooperativen Peers, die unkooperative Knoten von der Anfrageverarbeitung ausschließen und den Arbeitsbeweis als Eintrittsbarriere verwenden.
- TextdokumentFFT specific compilation on IBM blue gene(Ausgezeichnete Informatikdissertationen 2006, 2007) Kral, StefanBei vielen numerischen Codes gelingt es verfügbaren Compilern nicht, das Leistungspotential moderner Prozessoren zufriedenstellend auszuschöpfen. Als Alternative zum Hand-Coding und -Tuning von numerischen Grundroutinen wurde der MAP Special-Purpose-Compiler entwickelt und speziell an die Anforderungen von Codes aus der Domäne der Signalverarbeitung angepaßt. Die neue, an IBM Blue Ge- ne Supercomputer adaptierte Variante erreicht bei der Übersetzung von Codes der marktführenden Programmbibliothek FFTW bis zu 80\% der Maximalleistung der in IBM Blue Gene Systemen verwendeten IBM PowerPC 440 FP2 Prozessoren. Der MAP Compiler trägt so wesentlich zur Steigerung der Leistung von naturwissenschaftlichen Anwendungsprogrammen auf IBM Blue Gene, wie z. B. der materialwissenschaftlichen Simulation QBOX, dem Gewinner des ACM Gordon-Bell-Preises 2006 in der Kategorie “Peak Performance”, bei.
- TextdokumentFunctional Web Site Specification(Ausgezeichnete Informatikdissertationen 2006, 2007) Gipp, TorstenWebsites sind komplexe Software-Artefake, deren Erstellung und Pflege ohne ein wichtiges Hilfsmittel nicht mehr möglich ist: Abstraktionen, Modelle. Der vorliegende Text beschreibt einen Ansatz, nach dem ein großer Teil der Modelle als funktionale Programme erstellt werden. Hierdurch werden die Modelle zu ausdrucksstarken Spezifikationen, die sogar direkt ausgeführt werden können. Zur Implementierung verwenden wir die weit verbreitete funktionale Programmiersprache Haskell.
- TextdokumentHybrid methods of natural language analysis(Ausgezeichnete Informatikdissertationen 2006, 2007) Foth, KilianEine handgeschriebener Parser des Deutschen wird um statistische Methoden ergänzt, die dessen axiomatische und operative Semantik verbessern. Das Gesamtsystem weist dabei höhere Präzision als jede Einzelkomponente auf und definiert eine neue Bestmarke für automatische deutsche Parser.
- «
- 1 (current)
- 2
- 3
- »