D07 (2006) - Ausgezeichnete Informatikdissertationen
Dorothea Wagner et al. (Hrsg.)
GI-Edition - Lecture Notes in Informatics (LNI), D-7
Bonner Köllen Verlag (2006)
Auflistung D07 (2006) - Ausgezeichnete Informatikdissertationen nach Erscheinungsdatum
1 - 10 von 22
Treffer pro Seite
Sortieroptionen
- TextdokumentFFT specific compilation on IBM blue gene(Ausgezeichnete Informatikdissertationen 2006, 2007) Kral, StefanBei vielen numerischen Codes gelingt es verfügbaren Compilern nicht, das Leistungspotential moderner Prozessoren zufriedenstellend auszuschöpfen. Als Alternative zum Hand-Coding und -Tuning von numerischen Grundroutinen wurde der MAP Special-Purpose-Compiler entwickelt und speziell an die Anforderungen von Codes aus der Domäne der Signalverarbeitung angepaßt. Die neue, an IBM Blue Ge- ne Supercomputer adaptierte Variante erreicht bei der Übersetzung von Codes der marktführenden Programmbibliothek FFTW bis zu 80\% der Maximalleistung der in IBM Blue Gene Systemen verwendeten IBM PowerPC 440 FP2 Prozessoren. Der MAP Compiler trägt so wesentlich zur Steigerung der Leistung von naturwissenschaftlichen Anwendungsprogrammen auf IBM Blue Gene, wie z. B. der materialwissenschaftlichen Simulation QBOX, dem Gewinner des ACM Gordon-Bell-Preises 2006 in der Kategorie “Peak Performance”, bei.
- TextdokumentVereinheitlichte Spezifikation von Komponenten: Grundlagen, UnSCom Spezifikationsrahmen und Anwendung(Ausgezeichnete Informatikdissertationen 2006, 2007) Overhage, SvenIn diesem Beitrag wird ein Spezifikationsrahmen vorgestellt, mit dem sich die Außensicht von Software-Komponenten in normierter Weise beschreiben lässt. Der vorgestellte Spezifikationsrahmen schafft eine wichtige Grundlage zur Unterstützung des komponentenorientierten Entwicklungsprozesses. Er basiert auf dem Konzept des Software-Vertrags und beschreibt relevante Eigenschaften von Komponenten auf verschiedenen, systematisch hergeleiteten Vertragsebenen. Diese Ebenen sind thematisch gruppiert und stellen Informationen über folgende Eigenschaften einer Komponente bereit: Allgemeine und kommerzielle Merkmale (White Pages), Klassifikationen (Yellow Pages), fachliche Funktionalität (Blue Pages), logische Architektur (Green Pages) und physische Qualität (Grey Pages). Dabei werden Spezifikationsmethoden der Wirtschaftsinformatik und des Software Engineering zu einem Ansatz zusammengeführt.
- TextdokumentSpeicheroptimierungstechniken für Energieeffiziente Eingebettete Systeme(Ausgezeichnete Informatikdissertationen 2006, 2007) Verma, ManishDas Speichersystem ist als Flaschenhals der Leistung von Systemen der Informationsverarbeitung erkannt worden. Dementsprechend spricht man auch von der sog. Memory Wall, der Wand gegen die man beim Versuch weiterer Geschwindigkeitssteigerungen läuft. Daru ̈ber hinaus ist das Speichersystem in vielen Systemen für einen großen Teil des Energieverbrauchs verantwortlich. Dementsprechend wird der Einsatz eines hoch optimierten Speichersystems als kritisch für die Einhaltung von stringenten Entwurfsrandbedingungen insbesondere von Eingebetteten Systemen angesehen, v.a. bei Produkten der Konsumelektronik. Diese Dissertation liefert einen Beitrag zur Milderung des Memory Wall-Problems durch den Einsatz neuer Speicherarchitekturen, der durch neue Optimierungsstrategien möglich wird.
- TextdokumentSelf-organizing infrastructures for ambient services(Ausgezeichnete Informatikdissertationen 2006, 2007) Herrmann, KlausDie Vision von intelligenten Umgebungen (Ambient Intelligence - AmI) als neues Paradigma für die Unterstützung mobiler Benutzer bei alltäglichen Tätigkeiten rückt derzeit zunehmend in den Fokus Europäischer Forschungsaktivitäten. Ein hoher Grad an Autonomie auf Seiten der unterstützenden Software-Systeme ist hierfür eine unabdingbare Voraussetzung. Derartige Systeme müssen in der Lage sein, sich selbst ohne steuernde Eingriffe von Benutzern an deren Aktivitäten und Verhalten anzupassen. Entsprechende Systeme sind derzeit jedoch weitgehend unerforscht. Diese Arbeit stellt den ersten umfassenden Ansatz für eine selbstorganisierende Plattform zur Unterstützung von so genannten Ambient Services dar - Diensten, die es dem mobilen Benutzer gestatten, mit seiner unmittelbaren Umgebung zu interagieren. Diese als Ad hoc Service Grid (ASG) bezeichnete Plattform kann spontan in beliebigen Um- gebungen (z.B. Einkaufszentren, Baustellen, Messen, etc.) eingesetzt werden, um dort entsprechende Dienste anzubieten. In der Arbeit schlagen wir zunächst ein Modell für eine entsprechende Infrastruktur aus spontan vernetzten Rechnerknoten vor. Diese ist modular aufgebaut und im Einsatz flexibel erweiterbar. Der eigentliche Fokus liegt jedoch auf der Entwicklung und Evaluierung einer Reihe von Basis-Algorithmen und Protokollen für das selbstorganisierte Betreiben dieser Infrastruktur. Hier konzentrieren wir uns auf die Platzierung von Ambient Service-Instanzen, deren Auffinden (Discovery und Lookup), und auf die Erhaltung der Konsistenz einer Gruppe verteilt laufender Replikate eines solchen Dienstes. Diese Mechanismen legen zusammen eine essenzielle Grundlage für die Weiterentwicklung intelligenter Umgebungen.
- TextdokumentA GPU framework for interactive simulation and rendering of fluid effects(Ausgezeichnete Informatikdissertationen 2006, 2007) Krüger, JensZiel dieser Arbeit ist die Entwicklung von Konzepten und Methoden zur interaktiven visuellen Simulation von Fluid-Phänomenen auf PC-Grafikkarten (GPUs). Für die numerische Simulation auf GPUs wurde eine GPU-Abstraktionsschicht entwickelt, die Operatoren für Lineare Algebra bereitstellt. Damit wurden komplexere Algorithmen, z.B. Löser für große lineare Gleichungssysteme, realisiert und zur effizienten numerischen Lösung von Differentialgleichungen auf der GPU verwendet. Zur Modellierung von Strömungsstrukturen wurden neue Interaktionstechniken entwickelt. Für die Darstellung der dynamischen Phänomene wurden partikelund texturbasierte Volume-Rendering-Techniken erforscht. Durch das Zusammenspiel mit der Simulation auf der GPU lassen sich realistische 3D-Effekte sehr schnell generieren und visualisieren (s. Abbildung 1) Abbildung 1: Eine Auswahl von Fluid-Phänomenen auf PC-Grafikkarten. Alle diese Bilder wurden auf heutiger Standardhardware in Echtzeit sowohl simuliert als auch dargestellt.
- TextdokumentZuverlässiger Verteilter Speicher mit Transaktionaler Konsistenz(Ausgezeichnete Informatikdissertationen 2006, 2007) Frenz, StefanBeim Betrieb von Rechnern sind Ausfälle von Hardware, Fehler in der Software sowie nicht reproduzierbare Störungen in der Kommunikation zu erwarten. Stützt sich die Funktionsfähigkeit eines aus vielen Rechnern bestehenden Gesamtsystems auf die Verfügbarkeit aller Teilkomponenten, ist das Ausfallrisiko deutlich erhöht. Um die Zuverlässigkeit dennoch ausreichend gewährleisten zu können, ist es wünschenswert, auftretende Fehler zu erkennen und angemessen darauf zu reagieren. Die meisten Verfahren zur Behandlung von Fehlern sind auch im fehlerfreien Betrieb mit zum Teil erheblichen Kosten verbunden und nur auf eine sehr kleine Menge von Fehlern anwendbar. Hieraus ergibt sich der Bedarf einer unter Umständen nicht völlig verlustfreien, dafür aber möglichst generischen, schnellen und vorzugsweise schlanken Alternative, die im fehlerfreien Betrieb geringen Overhead aufweist. Diese Zusammenfassung der Dissertation ”Zuverlässiger verteilter Speicher mit transaktionaler Konsistenz“ stellt ein leichtgewichtiges Verfahren zur Unterstützung von Persistenz in einem verteilten Betriebssystem mit transaktionaler Konsistenz vor und erläutert die erforderlichen Grundlagen im Bereich verteilter Systeme sowie die Synergien zwischen transaktionaler Konsistenz und Schnappschusserstellung. Die originale Schrift durchleuchtet auch den Lösungsraum für einen schnellen Wiederanlauf nach einem behebbaren Fehler und entwickelt die Verfahren, mit denen modifizierte Seiten im fehlerfreien Betrieb elegant eingesammelt und schnell gesichert werden können. Ebenso werden dort auch die besonders zu berücksichtigenden Zustände von Kern und Gerätetreibern diskutiert.
- TextdokumentEffiziente Codierungen für SOAP-Nachrichten(Ausgezeichnete Informatikdissertationen 2006, 2007) Werner, ChristianWeb Services konnten sich in den letzten Jahren als universelle Middleware-Technologie in vielen Bereichen der Informatik etablieren. Durch den konsequenten Einsatz von Web-Standards – zu nennen ist hier vor allem XML – ermöglichen Web Services die Realisierung von verteilten Anwendungen auch in stark heterogenen Umgebungen. Allerdings bringt der durchgängige Einsatz von XML auch einen erheblichen Nachteil mit sich: Die Darstellung aller Daten als Text verursacht im Vergleich zu älteren Middleware-Technologien mit binärer Datenrepräsentation (z. B. CORBA oder Java RMI) ein deutlich höheres Datenaufkommen. Zwar spielt dieser Nachteil bei mo- dernen, drahtgebundenen Netzwerken kaum noch eine Rolle, denn hier reicht die zur Verfügung stehende Datenrate in aller Regel aus; in Anwendungsfeldern aber, in denen die Kommunikation u ̈ber eine Funkschnittstelle erfolgt, konnte sich die Web-Service- Technologie bislang nicht durchsetzen. Um Web Services auch hier effizient implementieren zu können, hat der Autor im Rahmen seiner Dissertation verschiedene Konzepte zur Reduzierung des Datenaufkommens bei der Web-Service-Kommunikation untersucht. Im folgenden Beitrag fasst er die wichtigsten Ergebnisse seiner Dissertati- on zusammen.
- TextdokumentHybrid methods of natural language analysis(Ausgezeichnete Informatikdissertationen 2006, 2007) Foth, KilianEine handgeschriebener Parser des Deutschen wird um statistische Methoden ergänzt, die dessen axiomatische und operative Semantik verbessern. Das Gesamtsystem weist dabei höhere Präzision als jede Einzelkomponente auf und definiert eine neue Bestmarke für automatische deutsche Parser.
- TextdokumentProtokollkomposition und Komplexität(Ausgezeichnete Informatikdissertationen 2006, 2007) Unruh, DominiqueUm dem Bedarf der modernen Kryptographie an rigorosen und mächtigen Sicherheitsdefinitionen zu genügen, sind in den letzten Jahren sogenannte simulations- basierte Sicherheitsmodelle mit Umgebung populär geworden. Diese kommen jedoch in vielen Varianten, und es ist nicht offensichtlich, in welcher Relation diese Varianten stehen, das heißt welche Definitionen welche implizieren und welche Begriffe äquivalent sind. Wir untersuchen die verschiedenen Varianten und geben eine vollständige Klassifikation, indem wir alle Implikationen und Trennungen zwischen den Begriffen aufzeigen. Die Resultate werden hier nur kurz skizziert, eine vollständige Darstellung findet sich in der Dissertation [Unr07].
- TextdokumentModeling of image variability for recognition(Ausgezeichnete Informatikdissertationen 2006, 2007) Keysers, DanielDem Computer das Verstehen von Bildern zu ermöglichen ist eine große Herausforderung. Durch die geeignete Behandlung typischer Veränderungen in Bildern kann man die Erkennung von Objekten in vielen Fällen verbessern. In der hier vorgestellten Dissertation werden Modelle zur Beschreibung von Variabilität in Bildern für die erscheinungsbasierte Klassifikation von Objekten untersucht. Die Mo- delle bestimmen dabei die Ähnlichkeit zwischen zwei gegebenen Bildern, die für die Klassifikation verwendet wird. Als theoretisches Ergebnis wird erstmals gezeigt, dass die Bestimmung der besten flexiblen Abbildung zwischen zwei Bildern für ein zweidimensionales Modell zur Klasse der NP-harten Probleme gehört. In der praktischen An- wendung stellt sich andererseits als entscheidend für niedrige Fehlerraten heraus, dass ein geeigneter Kontext der Bildpixel bei der Abbildung berücksichtigt wird. Durch die Hinzunahme von Kontext werden auch mit weniger komplexen Modellen sehr gute Fehlerraten erreicht. Die Anwendung der vorgestellten Methoden wird vor allem für die Klassifikation handgeschriebener Zeichen und die Kategorisierung von medizinischen Bildern untersucht, wobei in beiden Fällen Ergebnisse erzielt werden, die im Vergleich mit denen anderer Forschergruppen sehr gut abschneiden.
- «
- 1 (current)
- 2
- 3
- »