Logo des Repositoriums
 

D07 (2006) - Ausgezeichnete Informatikdissertationen

Dorothea Wagner et al. (Hrsg.)

GI-Edition - Lecture Notes in Informatics (LNI), D-7

Bonner Köllen Verlag (2006)

Autor*innen mit den meisten Dokumenten  

Auflistung nach:

Neueste Veröffentlichungen

1 - 10 von 22
  • Textdokument
    Zuverlässiger Verteilter Speicher mit Transaktionaler Konsistenz
    (Ausgezeichnete Informatikdissertationen 2006, 2007) Frenz, Stefan
    Beim Betrieb von Rechnern sind Ausfälle von Hardware, Fehler in der Software sowie nicht reproduzierbare Störungen in der Kommunikation zu erwarten. Stützt sich die Funktionsfähigkeit eines aus vielen Rechnern bestehenden Gesamtsystems auf die Verfügbarkeit aller Teilkomponenten, ist das Ausfallrisiko deutlich erhöht. Um die Zuverlässigkeit dennoch ausreichend gewährleisten zu können, ist es wünschenswert, auftretende Fehler zu erkennen und angemessen darauf zu reagieren. Die meisten Verfahren zur Behandlung von Fehlern sind auch im fehlerfreien Betrieb mit zum Teil erheblichen Kosten verbunden und nur auf eine sehr kleine Menge von Fehlern anwendbar. Hieraus ergibt sich der Bedarf einer unter Umständen nicht völlig verlustfreien, dafür aber möglichst generischen, schnellen und vorzugsweise schlanken Alternative, die im fehlerfreien Betrieb geringen Overhead aufweist. Diese Zusammenfassung der Dissertation ”Zuverlässiger verteilter Speicher mit transaktionaler Konsistenz“ stellt ein leichtgewichtiges Verfahren zur Unterstützung von Persistenz in einem verteilten Betriebssystem mit transaktionaler Konsistenz vor und erläutert die erforderlichen Grundlagen im Bereich verteilter Systeme sowie die Synergien zwischen transaktionaler Konsistenz und Schnappschusserstellung. Die originale Schrift durchleuchtet auch den Lösungsraum für einen schnellen Wiederanlauf nach einem behebbaren Fehler und entwickelt die Verfahren, mit denen modifizierte Seiten im fehlerfreien Betrieb elegant eingesammelt und schnell gesichert werden können. Ebenso werden dort auch die besonders zu berücksichtigenden Zustände von Kern und Gerätetreibern diskutiert.
  • Textdokument
    Hybrid methods of natural language analysis
    (Ausgezeichnete Informatikdissertationen 2006, 2007) Foth, Kilian
    Eine handgeschriebener Parser des Deutschen wird um statistische Methoden ergänzt, die dessen axiomatische und operative Semantik verbessern. Das Gesamtsystem weist dabei höhere Präzision als jede Einzelkomponente auf und definiert eine neue Bestmarke für automatische deutsche Parser.
  • Textdokument
    Interaktive Animation Textiler Materialien
    (Ausgezeichnete Informatikdissertationen 2006, 2007) Fuhrmann, Arnulph
    In meiner Dissertation [Fuh06] werden mehrere Verfahren und Konzepte vorgestellt, die zusammengenommen ein komplettes System zur Simulation und Visualisierung von textilen Materialien bzw. Bekleidung ergeben, welches sich für die virtuelle Anprobe und das Virtual Prototyping von Bekleidung eignet. Besonderes Augenmerk wird auf die Stabilität der Simulation und die Echtzeitfähigkeit des Komplettsystems gelegt. Die wichtigsten Ergebnisse dieser Arbeit sind Ontologien für Bekleidung, Algorithmen zur schnellen Kollisionserkennung, die effiziente Simulation von textilem Material und die Visualisierung in Echtzeit.
  • Textdokument
    Advanced visualization and modeling of tetrahedral meshes
    (Ausgezeichnete Informatikdissertationen 2006, 2007) Frank, Tobias
    Tetraedergitter gewinnen immer mehr an Bedeutung für technische und naturwissenschaftliche Anwendungen. Die vorliegende Arbeit stellt neue Algorithmen für das Erstellen von komplexen impliziten Modellen - basierend auf Tetraedergittern - und deren effiziente Visualisierung vor. Zum Modellieren wurde ein neuartiger Algorithmus zur Oberflächenrekonstruktion von komplexen 3D-Flächen aus schlecht konditionierten Daten, wie sie oft in naturwissenschaftlichen Anwendungen auftreten, entwickelt. Dabei kann die Fläche begrenzt sein und Unstetigkeiten aufweisen. Des Weiteren wurde im Rahmen dieser Arbeit eine innovative Methode zur intuitiven Echtzeit-Manipulation von implizit definierten Objekten erarbeitet. Die Manipulation erfolgt interaktiv direkt am 3D-Volumenmodell. Die Visualisierung besteht aus einer generischen Architektur zur Informationsgewinnung und Interpretation mittels Co-Visualisierung diverser Attribute und Booleschen Operatoren der Constructive So- lid Geometry mit konstanter Komplexität.
  • Textdokument
    Functional Web Site Specification
    (Ausgezeichnete Informatikdissertationen 2006, 2007) Gipp, Torsten
    Websites sind komplexe Software-Artefake, deren Erstellung und Pflege ohne ein wichtiges Hilfsmittel nicht mehr möglich ist: Abstraktionen, Modelle. Der vorliegende Text beschreibt einen Ansatz, nach dem ein großer Teil der Modelle als funktionale Programme erstellt werden. Hierdurch werden die Modelle zu ausdrucksstarken Spezifikationen, die sogar direkt ausgeführt werden können. Zur Implementierung verwenden wir die weit verbreitete funktionale Programmiersprache Haskell.
  • Textdokument
    Increasing robustness and usability of circuit design tools by using formal techniques
    (Ausgezeichnete Informatikdissertationen 2006, 2007) Fey, Görschwin
  • Textdokument
    Algorithms for dynamic geometric data streams
    (Ausgezeichnete Informatikdissertationen 2006, 2007) Frahling, Gereon
    Die zunehmende Vernetzung moderner Computersysteme produziert gewaltige Datenmengen, deren Behandlung die heutige Informatik vor unzählige Probleme stellt. Traditionelle Algorithmen, deren Laufzeit zu stark von der Größe der Daten abhängt, sind häufig nicht anwendbar. Oft sind die Eingabedaten sogar zu groß für die verfügbaren Speichermedien. Wir stellen neue, grundlegende Algorithmen zur Analyse gewaltiger Datenmengen vor, die unter minimalen Anforderungen an den Speicher der Computersysteme beweisbar gute Zusammenfassungen der Daten berechnen. Zunächst erarbeiten wir grundlegende Ergebnisse zum Ziehen von Stichproben aus dynamischen Datenströmen. Mit Hilfe dieser Stichproben können vielfältige Aussagen über die Eingabedaten getroffen werden, was wir anhand von Beispielen beweisen. Anschließend wenden wir uns dem Clustering gewaltiger Datensätze zu. Wir entwickeln eine Methode, große Datenmengen zu sogenannten Coresets zusammenzufassen. Die Methode erzeugt beweisbar k-meansund k-median-Clusterings mit beliebig guter Approximationsgarantie und ist anwendbar in vielen verschiedenen Modellen: Die Clusterings können mit wenig Speicher für dynamische Datenströme berechnet werden, sie lassen sich in sublinearer Zeit durch Bereichsanfragen erstellen, und auch sich bewegende Punkte können effizient zusammengefasst werden. Eine Implementierung zeigt, dass die Methode auf großen realen Testdaten gute Clusterings deutlich schneller berechnen kann als häufig angewendete traditionelle Algorithmen. Schließlich beschäftigen wir uns mit der Analyse der Struktur von großen Graphen wie dem Webgraph. Wir entwickeln neue Methoden, um die Anzahl von Teilgraphen (z.B. Dreiecken) eines Graphen zu zählen, der als Datenstrom von Kanten gegeben ist.
  • Textdokument
    Das 3d-Puzzle-Problem - Effiziente Methoden zum paarweisen Zusammensetzen von dreidimensionalen Fragmenten
    (Ausgezeichnete Informatikdissertationen 2006, 2007) Winkelbach, Simon
    Das automatische Zusammenfügen von dreidimensionalen Objekten aus Einzelteilen (3d-Puzzle-Problem) ist in vielen wichtigen Forschungs- und Anwen- dungsbereichen von hoher Relevanz. In diesen Bereichen können insbesondere durch Methoden der Informatik und der 3d-Bildverarbeitung substanzielle Fortschritte er- zielt werden. Diese Arbeit gibt einen Überblick über die gesamte Prozesskette von der Datenakquisition, über die allgemeine Registrierung von Oberflächen, bis hin zu speziellen Anforderungen beim Zusammensetzen von Fragmenten in unterschiedlichen Anwendungsfällen. Insbesondere werden neuartige Ansätze vorgestellt, mit denen Fragmentoberflächen auf äußerst effiziente Weise und ohne Wissen über eine Initiallösung automatisch zusammengefügt werden können. Hierbei wird eine hohe Robustheit gegenüber Messungenauigkeiten, Fragmentschädigungen und Materialverschleiß erreicht. Darüber hinaus gelingt es, durch Ausnutzung von Symmetrieebenen und Achsen gebrochene Oberschenkel- und Beckenknochen virtuell zusammenzufügen und somit einen wichtigen Baustein für die computerassistierte Frakturbehandlung in der Chirurgie zu schaffen.
  • Textdokument
    FFT specific compilation on IBM blue gene
    (Ausgezeichnete Informatikdissertationen 2006, 2007) Kral, Stefan
    Bei vielen numerischen Codes gelingt es verfügbaren Compilern nicht, das Leistungspotential moderner Prozessoren zufriedenstellend auszuschöpfen. Als Alternative zum Hand-Coding und -Tuning von numerischen Grundroutinen wurde der MAP Special-Purpose-Compiler entwickelt und speziell an die Anforderungen von Codes aus der Domäne der Signalverarbeitung angepaßt. Die neue, an IBM Blue Ge- ne Supercomputer adaptierte Variante erreicht bei der Übersetzung von Codes der marktführenden Programmbibliothek FFTW bis zu 80\% der Maximalleistung der in IBM Blue Gene Systemen verwendeten IBM PowerPC 440 FP2 Prozessoren. Der MAP Compiler trägt so wesentlich zur Steigerung der Leistung von naturwissenschaftlichen Anwendungsprogrammen auf IBM Blue Gene, wie z. B. der materialwissenschaftlichen Simulation QBOX, dem Gewinner des ACM Gordon-Bell-Preises 2006 in der Kategorie “Peak Performance”, bei.
  • Textdokument
    Vereinheitlichte Spezifikation von Komponenten: Grundlagen, UnSCom Spezifikationsrahmen und Anwendung
    (Ausgezeichnete Informatikdissertationen 2006, 2007) Overhage, Sven
    In diesem Beitrag wird ein Spezifikationsrahmen vorgestellt, mit dem sich die Außensicht von Software-Komponenten in normierter Weise beschreiben lässt. Der vorgestellte Spezifikationsrahmen schafft eine wichtige Grundlage zur Unterstützung des komponentenorientierten Entwicklungsprozesses. Er basiert auf dem Konzept des Software-Vertrags und beschreibt relevante Eigenschaften von Komponenten auf verschiedenen, systematisch hergeleiteten Vertragsebenen. Diese Ebenen sind thematisch gruppiert und stellen Informationen über folgende Eigenschaften einer Komponente bereit: Allgemeine und kommerzielle Merkmale (White Pages), Klassifikationen (Yellow Pages), fachliche Funktionalität (Blue Pages), logische Architektur (Green Pages) und physische Qualität (Grey Pages). Dabei werden Spezifikationsmethoden der Wirtschaftsinformatik und des Software Engineering zu einem Ansatz zusammengeführt.