Logo des Repositoriums
 

D07 (2006) - Ausgezeichnete Informatikdissertationen

Dorothea Wagner et al. (Hrsg.)

GI-Edition - Lecture Notes in Informatics (LNI), D-7

Bonner Köllen Verlag (2006)

Autor*innen mit den meisten Dokumenten  

Auflistung nach:

Neueste Veröffentlichungen

1 - 10 von 22
  • Textdokument
    Das 3d-Puzzle-Problem - Effiziente Methoden zum paarweisen Zusammensetzen von dreidimensionalen Fragmenten
    (Ausgezeichnete Informatikdissertationen 2006, 2007) Winkelbach, Simon
    Das automatische Zusammenfügen von dreidimensionalen Objekten aus Einzelteilen (3d-Puzzle-Problem) ist in vielen wichtigen Forschungs- und Anwen- dungsbereichen von hoher Relevanz. In diesen Bereichen können insbesondere durch Methoden der Informatik und der 3d-Bildverarbeitung substanzielle Fortschritte er- zielt werden. Diese Arbeit gibt einen Überblick über die gesamte Prozesskette von der Datenakquisition, über die allgemeine Registrierung von Oberflächen, bis hin zu speziellen Anforderungen beim Zusammensetzen von Fragmenten in unterschiedlichen Anwendungsfällen. Insbesondere werden neuartige Ansätze vorgestellt, mit denen Fragmentoberflächen auf äußerst effiziente Weise und ohne Wissen über eine Initiallösung automatisch zusammengefügt werden können. Hierbei wird eine hohe Robustheit gegenüber Messungenauigkeiten, Fragmentschädigungen und Materialverschleiß erreicht. Darüber hinaus gelingt es, durch Ausnutzung von Symmetrieebenen und Achsen gebrochene Oberschenkel- und Beckenknochen virtuell zusammenzufügen und somit einen wichtigen Baustein für die computerassistierte Frakturbehandlung in der Chirurgie zu schaffen.
  • Textdokument
    Functional Web Site Specification
    (Ausgezeichnete Informatikdissertationen 2006, 2007) Gipp, Torsten
    Websites sind komplexe Software-Artefake, deren Erstellung und Pflege ohne ein wichtiges Hilfsmittel nicht mehr möglich ist: Abstraktionen, Modelle. Der vorliegende Text beschreibt einen Ansatz, nach dem ein großer Teil der Modelle als funktionale Programme erstellt werden. Hierdurch werden die Modelle zu ausdrucksstarken Spezifikationen, die sogar direkt ausgeführt werden können. Zur Implementierung verwenden wir die weit verbreitete funktionale Programmiersprache Haskell.
  • Textdokument
    Interaktive Animation Textiler Materialien
    (Ausgezeichnete Informatikdissertationen 2006, 2007) Fuhrmann, Arnulph
    In meiner Dissertation [Fuh06] werden mehrere Verfahren und Konzepte vorgestellt, die zusammengenommen ein komplettes System zur Simulation und Visualisierung von textilen Materialien bzw. Bekleidung ergeben, welches sich für die virtuelle Anprobe und das Virtual Prototyping von Bekleidung eignet. Besonderes Augenmerk wird auf die Stabilität der Simulation und die Echtzeitfähigkeit des Komplettsystems gelegt. Die wichtigsten Ergebnisse dieser Arbeit sind Ontologien für Bekleidung, Algorithmen zur schnellen Kollisionserkennung, die effiziente Simulation von textilem Material und die Visualisierung in Echtzeit.
  • Textdokument
    Advanced visualization and modeling of tetrahedral meshes
    (Ausgezeichnete Informatikdissertationen 2006, 2007) Frank, Tobias
    Tetraedergitter gewinnen immer mehr an Bedeutung für technische und naturwissenschaftliche Anwendungen. Die vorliegende Arbeit stellt neue Algorithmen für das Erstellen von komplexen impliziten Modellen - basierend auf Tetraedergittern - und deren effiziente Visualisierung vor. Zum Modellieren wurde ein neuartiger Algorithmus zur Oberflächenrekonstruktion von komplexen 3D-Flächen aus schlecht konditionierten Daten, wie sie oft in naturwissenschaftlichen Anwendungen auftreten, entwickelt. Dabei kann die Fläche begrenzt sein und Unstetigkeiten aufweisen. Des Weiteren wurde im Rahmen dieser Arbeit eine innovative Methode zur intuitiven Echtzeit-Manipulation von implizit definierten Objekten erarbeitet. Die Manipulation erfolgt interaktiv direkt am 3D-Volumenmodell. Die Visualisierung besteht aus einer generischen Architektur zur Informationsgewinnung und Interpretation mittels Co-Visualisierung diverser Attribute und Booleschen Operatoren der Constructive So- lid Geometry mit konstanter Komplexität.
  • Textdokument
    Zuverlässiger Verteilter Speicher mit Transaktionaler Konsistenz
    (Ausgezeichnete Informatikdissertationen 2006, 2007) Frenz, Stefan
    Beim Betrieb von Rechnern sind Ausfälle von Hardware, Fehler in der Software sowie nicht reproduzierbare Störungen in der Kommunikation zu erwarten. Stützt sich die Funktionsfähigkeit eines aus vielen Rechnern bestehenden Gesamtsystems auf die Verfügbarkeit aller Teilkomponenten, ist das Ausfallrisiko deutlich erhöht. Um die Zuverlässigkeit dennoch ausreichend gewährleisten zu können, ist es wünschenswert, auftretende Fehler zu erkennen und angemessen darauf zu reagieren. Die meisten Verfahren zur Behandlung von Fehlern sind auch im fehlerfreien Betrieb mit zum Teil erheblichen Kosten verbunden und nur auf eine sehr kleine Menge von Fehlern anwendbar. Hieraus ergibt sich der Bedarf einer unter Umständen nicht völlig verlustfreien, dafür aber möglichst generischen, schnellen und vorzugsweise schlanken Alternative, die im fehlerfreien Betrieb geringen Overhead aufweist. Diese Zusammenfassung der Dissertation ”Zuverlässiger verteilter Speicher mit transaktionaler Konsistenz“ stellt ein leichtgewichtiges Verfahren zur Unterstützung von Persistenz in einem verteilten Betriebssystem mit transaktionaler Konsistenz vor und erläutert die erforderlichen Grundlagen im Bereich verteilter Systeme sowie die Synergien zwischen transaktionaler Konsistenz und Schnappschusserstellung. Die originale Schrift durchleuchtet auch den Lösungsraum für einen schnellen Wiederanlauf nach einem behebbaren Fehler und entwickelt die Verfahren, mit denen modifizierte Seiten im fehlerfreien Betrieb elegant eingesammelt und schnell gesichert werden können. Ebenso werden dort auch die besonders zu berücksichtigenden Zustände von Kern und Gerätetreibern diskutiert.
  • Textdokument
    Hybrid methods of natural language analysis
    (Ausgezeichnete Informatikdissertationen 2006, 2007) Foth, Kilian
    Eine handgeschriebener Parser des Deutschen wird um statistische Methoden ergänzt, die dessen axiomatische und operative Semantik verbessern. Das Gesamtsystem weist dabei höhere Präzision als jede Einzelkomponente auf und definiert eine neue Bestmarke für automatische deutsche Parser.
  • Textdokument
    Increasing robustness and usability of circuit design tools by using formal techniques
    (Ausgezeichnete Informatikdissertationen 2006, 2007) Fey, Görschwin
  • Textdokument
    Algorithms for dynamic geometric data streams
    (Ausgezeichnete Informatikdissertationen 2006, 2007) Frahling, Gereon
    Die zunehmende Vernetzung moderner Computersysteme produziert gewaltige Datenmengen, deren Behandlung die heutige Informatik vor unzählige Probleme stellt. Traditionelle Algorithmen, deren Laufzeit zu stark von der Größe der Daten abhängt, sind häufig nicht anwendbar. Oft sind die Eingabedaten sogar zu groß für die verfügbaren Speichermedien. Wir stellen neue, grundlegende Algorithmen zur Analyse gewaltiger Datenmengen vor, die unter minimalen Anforderungen an den Speicher der Computersysteme beweisbar gute Zusammenfassungen der Daten berechnen. Zunächst erarbeiten wir grundlegende Ergebnisse zum Ziehen von Stichproben aus dynamischen Datenströmen. Mit Hilfe dieser Stichproben können vielfältige Aussagen über die Eingabedaten getroffen werden, was wir anhand von Beispielen beweisen. Anschließend wenden wir uns dem Clustering gewaltiger Datensätze zu. Wir entwickeln eine Methode, große Datenmengen zu sogenannten Coresets zusammenzufassen. Die Methode erzeugt beweisbar k-meansund k-median-Clusterings mit beliebig guter Approximationsgarantie und ist anwendbar in vielen verschiedenen Modellen: Die Clusterings können mit wenig Speicher für dynamische Datenströme berechnet werden, sie lassen sich in sublinearer Zeit durch Bereichsanfragen erstellen, und auch sich bewegende Punkte können effizient zusammengefasst werden. Eine Implementierung zeigt, dass die Methode auf großen realen Testdaten gute Clusterings deutlich schneller berechnen kann als häufig angewendete traditionelle Algorithmen. Schließlich beschäftigen wir uns mit der Analyse der Struktur von großen Graphen wie dem Webgraph. Wir entwickeln neue Methoden, um die Anzahl von Teilgraphen (z.B. Dreiecken) eines Graphen zu zählen, der als Datenstrom von Kanten gegeben ist.
  • Textdokument
    Prototype based machine learning for clinical proteomics
    (Ausgezeichnete Informatikdissertationen 2006, 2007) Schleif, Frank-Michael
    Die klinische Proteomik befasst sich mit der Untersuchung von Krankheitsbildern auf Basis von Proteinanalysen. Die dabei am häufigsten verwendete Messmethode ist die Massenspektrometrie. Dabei entstehen hochdimensionale Spektren, die eine problemangepasste Vorverarbeitung sowie Algorithmik für die Erzeugung von statistischen Modellen erfordern. Im Bereich klinischer Fragestellungen sollten die dabei eingesetzten Werkzeuge leicht interpretierbar sein, um ein tieferes Verständnis der klinischen Daten oder Anwendungen, wie zum Beispiel der Suche nach Krankheitsmarkern, zu gestatten. Prototypen basierte Algorithmen erweisen sich dabei als besonders günstig. In diesem Beitrag werden wesentliche Erweiterungen von prototypen basierten Verfahren skizziert, die den besonderen Herausforderungen der klinischen Proteomik Rechnung tragen. Die Verfahren werden um Metrikadaptation zur besseren Approximation der Klassengrenzen, Fuzzy-Klassifikation zur Modellierung unscharfer Klassen, sowie Konzepte des aktiven Lernens zur trennbreiten basierten Optimierung der Modelle erweitert und auf klinischen Datensätzen getestet.
  • Textdokument
    The ambiguity of morphisms in free monoids and its impact on algorithmic properties of pattern languages
    (Ausgezeichnete Informatikdissertationen 2006, 2007) Reidenbach, Daniel
    Die vorliegende Arbeit untersucht eine fundamentale kombinatorische Ei- genschaft von Homomorphismen in freien Monoiden, nämlich ihre Mehrdeutigkeit. Dieser Begriff bezeichnet den Umstand, daß zu einem gegebenen Wort $α$und einem Homomorphismus $σ$durchaus ein zweiter Homomorphismus $τ$existieren kann, der $α$auf dasselbe Wort abbildet wie $σ$- es gilt also $σ(α) = τ(α)$, obwohl ein Symbol x in $α$existiert, für das sich $σ(x)$ von $τ(x)$ unterscheidet. Aufgrund ihres elementaren Charakters ist Mehrdeutigkeit von Homomorphismen eng verwoben mit einer Fülle von wichtigen Themen der Informatik. So stellt sie nicht nur die Grundlage des Postschen Korrespondenzproblems dar, sondern beeinflußt auch etliche Eigenschaften von Patternsprachen, welche insbesondere in der algorithmischen Lerntheorie von großer Bedeutung sind. Die kombinatorischen Hauptergebnisse der Arbeit - insbesondere zur Existenz von eindeutigen und sogenannten moderat mehrdeutigen Homomorphismen - erlauben daher diverse nichttriviale Rückschlüsse zu einigen klassischen Problemen für Patternsprachen.