D04 (2003) - Ausgezeichnete Informatikdissertationen
Dorothea Wagner et al. (Hrsg.)
GI-Edition - Lecture Notes in Informatics (LNI), D-4
Bonner Köllen Verlag (2003)
ISBN 3-88579-408-X
Auflistung D04 (2003) - Ausgezeichnete Informatikdissertationen nach Erscheinungsdatum
1 - 10 von 22
Treffer pro Seite
Sortieroptionen
- TextdokumentData management and routing in general networks(Ausgezeichnete Informatikdissertationen 2003, 2004) Räcke, Harald
- TextdokumentVisualisierung diskreter und kontinuierlicher Tensorfelder(Ausgezeichnete Informatikdissertationen 2003, 2004) Hotz, IngridDiese Arbeit besteht im Wesentlichen aus zwei relativ eigenständigen Teilen, die in ihrer Entstehung jedoch eng miteinander verknüpft sind. Beide beschäftigen sich mit geometrischen Problemen im Kontext von Visualisierung. Im ersten Teil stelle ich zwei Algorithmen zur Berechnung charakteristischer Flächenkurven, Geodäten und Krümmungslinien, vor. Durch den geometrischen Ansatz sind sie sowohl für analytische sowie diskrete Flächen geeignet. Im Gegensatz zu klassischen Berechnungsmethoden, ist eine natürliche Anpassung der Schrittweite an die lokale Geometrie möglich, was eine effiziente und genaue Berechnung erlaubt. Der zweite Teil der Arbeit ist der Visualisierung von Tensorfeldern gewidmet. Die Interpretation symmetrischer Tensorfelder als Störung einer flachen Metrik, welche durch eine isometrischer Einbettungen dargestellt wird, führet zu einer intuitiven Darstellung der physikalischen Bedeutung der Tensorfelder. Im Gegensatz zu bisherigen Einbettungsverfahren beinhaltet meiner Methode keine prinzipielle Einschränkung an die Metrik. Sie basiert auf einem konstruktiven Ansatz, der das Problem der Mehrdeutigkeit, welches bei algebraischen Lösungsansätzen auftritt, löst. Erstmals ist es auch möglich automatisch nur Teilflächen einzubetten, falls keine globale Einbettung existiert.
- TextdokumentSicherheit in Mobilen Ad hoc Netzwerken(Ausgezeichnete Informatikdissertationen 2003, 2004) Kargl, FrankIn jüngster Zeit entwickeln Forscher in aller Welt eine Vision von Netzwerken, welche anders aufgebaut sind als bisherige drahtlose Netze. So genannte Mo- bile Ad-Hoc Netzwerke (MANETs) sind vollkommen dezentral aufgebaut und kommen ohne feste Infrastruktur aus. Damit ermöglichen sie den Einsatz an Orten oder in Situationen, in denen der vorherige Aufbau einer Infrastruktur zur Vernetzung von Computern oder anderen elektronischen Geräten nicht möglich oder wünschenswert ist. Während der Aufbau solcher MANETs bereits recht gut verstanden ist, wurde ein Aspekt bisher eher vernachlässigt: der Schutz der entstehenden Netzwerke und seiner Teilnehmer vor den vielfältigen Angriffen, die hier möglich sind. So können Knoten beispielsweise den Routingprozess empfindlich stören oder Knoten können schlicht die Kooperation im Netz verweigern. Im Vergleich zu klassischen Netzwerken ermöglicht die Selbstorganisation also einige weitergehende Angriffe, so dass hier auch zusätzliche Schutzmaßnahmen nötig werden. Im Rahmen meiner Dissertation habe ich die besonderen Sicherheitsprobleme bei MANETs analysiert und eine integrierte Sicherheitsarchitektur für Mobile Ad-hoc Netzwerke mit dem Namen SAM“ entwickelt. ”
- TextdokumentBi-decomposition of function sets using multi-valued logic(Ausgezeichnete Informatikdissertationen 2003, 2004) Lang, ChristianLogiksynthese für neue Schaltungstechniken und Data Mining sind zwei Anwendungsgebiete für die Synthese von Funktionen in mehrwertiger Logik. Bi-De- komposition ist eine Methode der Logiksynthese, bei der die gegebene Funktion in zwei einfachere Teilfunktionen zerlegt wird. In dieser Arbeit werden Algorithmen zur Darstellung und Bi-Dekomposition von Funktionsmengen in mehrwertiger Logik entwickelt. Als Ergebnis der Implementierung dieser Algorithmen ist das modulare Programmsystem YADE entstanden, das mehrwertige Funktionsmengen in ein Netzwerk von mehrwertigen Gattern dekomponiert. Vergleiche mit anderen Dekomposern zeigen, dass durch Bi-Dekomposition erzeugte Gatternetzwerke eine geringere Komplexität aufweisen.
- TextdokumentExakte Algorithmen für NP-harte Probleme auf Netzwerken(Ausgezeichnete Informatikdissertationen 2003, 2004) Alber, JochenWir befassen uns in der Arbeit mit dem Entwurf von exakten Algorithmen für verschiedene NP-vollständige Optimierungsprobleme auf Graphen, wie beispielsweise Vertex Cover, Independent Set oder Dominating Set. Im Vordergrund der Arbeit stehen exakte Lösungsverfahren mit beweisbaren Laufzeitschranken. Wir verfolgen dabei den jüngst vorgeschlagenen Ansatz sogenannter “parametrisierter Algorithmen”. Dabei untersuchen wir sowohl von theoretischer, als auch von praktischer Seite unterschiedliche Methoden des Algorithmen-Designs: Datenreduktion, beschränkte Suchbäume, Separation von Graphen und das Konzept von Baumzerlegungen. Schließ- lich stellen wir ein Software-Paket vor, welches im Rahmen dieses Projektes entwickelt wurde und eine Vielzahl der entwickelten Algorithmen implementiert.
- TextdokumentBessere Software durch Querschneidende Module(Ausgezeichnete Informatikdissertationen 2003, 2004) Ostermann, KlausGute Separierung der Belange in Softwaresystemen ist der Schlüssel, um mit wachsender Komplexität umzugehen. Die wichtigste Aufgabe von Programmiersprachen in Bezug auf dieses Ziel ist die Bereitstellung von geeigneten Mitteln, um das mentale Modell eines Domänenexperten so direkt wie möglich in einer Programmiersprache festhalten zu können und damit die intellektuelle Distanz zwischen dem mentalen Modell und dem Programmcode so gering wie möglich zu halten. Dies ist der Kontext, im dem die hier zusammengefasste Dissertation versucht, den aktuellen Stand der Technik voranzubringen. Ein besonderer Schwerpunkt liegt dabei auf Sprachkonzepten für die Unterstützung sogenannter “querschneidender Modelle”, die aus unterschiedlichen Sichten auf ein Softwaresystem resultieren und mit konventioneller Technologie zu Programmen mit schlechten softwaretechnologischen Eigenschaften wie Wartbarkeit und Wiederverwendbarkeit führen. Die Resultate dieser Arbeit bilden die Grundlage der Programmiersprache Caesar, die zur Zeit in mehreren industriellen Projekten evaluiert wird. Neue Sprachkonstrukte für eine bessere Separierung der Belange (separation of concerns) in der Softwareentwicklung werden benötigt! Diese These ist der Ausgangspunkt der diesem Dokument zugrundeliegenden Dissertation [Os03]. Zunächst einmal: Was ist gemeint mit “guter Separierung der Belange”? Ein Belang (concern) ist jede kohärente Angelegenheit in einer Problemdomäne. Ein Be- lang kann ein beliebig komplexes Konzept wie “Sicherheit” oder “Lohnbuchhaltung” sein, oder primitive Konzepte wie “warten auf ein Mausereignis”. Separierung der Belange ist eng verwandt mit Kompositionsund Dekompositionsmechanismen in Programmiersprachen, also die Partitionierung eines Softwaresystems in kleine Teile (Dekomposition) und das Zusammenbauen eines Softwaresystems anhand dieser kleinen Teile (Komposition). Diese Definition sagt jedoch nichts darüber, wie ein Softwaresystem dekomponiert werden soll. Zum Beispiel könnte ein Programm in zwei Teile zerlegt werden, bei dem ein Teil die geraden Zeilennummern und ein anderer Teil die ungeraden Zeilennummern enthält. Offensichtlich macht diese Dekomposition jedoch keinen Sinn. Wir benötigen Kriterien, die benutzt werden können, um geeignete Dekompositionen eines Systems zu finden. Dies ist der Punkt, an dem sich das Konzept der Separierung der Belange, welches auf Parnas [Pa72a] und Dijkstra [Di76] zurückgeht, als nützlich erweist. Dieses Konzept postuliert, dass jeder Teil eines dekomponierten Softwaresystems für einen wohldefinierten Aspekt eines Systems verantwortlich sein sollte. Jeder Teil sollte sowenig Wissen wie möglich über andere Teile eines Systems haben, so daß es möglich ist, jeden Aspekt einzeln und isoliert von allen anderen Aspekten zu betrachten. Bessere Software durch Querschneidende Module In konventionellen Programmiersprachen wird dieses Konzept durch Module unterstützt, die eine hierarchische Aufteilung der Softwaredomäne ermöglichen und damit eine direkte Abbildung hierarchischer Modelle ermöglichen. Die dieser Arbeit zugrunde liegende These ist, daß neben einer Unterstützung für hierarchische Modelle noch eine zweite Di- mension von Modellen durch Programmiersprachen unterstützt werden sollte, nämlich sogenannte querschneidende Modelle, die durch unterschiedliche Sichten desselben Systems zustandekommen. Der Rest dieses Artikels ist wie folgt strukturiert: In Abschnitt 1 wird kurz die Bedeutung guter Separierung der Belange für die Softwareentwicklung erläutert. In Abschnitt 2 wird der Begriff der querschneidenden Modelle eingeführt und dessen Bedeutung für die Softwaretechnologie erläutert. Schliesslich wird Abschnitt 3 einen kleinen Überblick darüber geben, wie querschneidende Modelle in der Programmiersprache Caesar unterstützt werden.
- TextdokumentOptimierung der Verarbeitung von Dokumenten(Ausgezeichnete Informatikdissertationen 2003, 2004) Noga, MarkusWir haben Verfahren zur statischen und dynamischen Optimierung von Quellen und Transformationen entwickelt. Einige davon erforderten neue Umsetzungen dieser Grundbausteine, andere arbeiten mit bestehenden Umsetzungen zusammen. Durch Spezialisierung der Grammatik für wohlgeformtes XML anhand eines statisch bekannten Schemas gelingt es uns, die bisher separat erfolgenden Prüfungen auf korrekte Klammerung und Typkonformität in der Zerteilung zu subsumieren. Nach unserem Verfahren erzeugte Grammatiken sind mit verbreiteten Zereilergeneratoren kompatibel. Abstrakte Interpretation von Pfadausdrücken über einem statisch bekannten Eingabeschema kann die auftretenden Knotenmengen mit Hilfe von Kontexten einschränken. Diese Einschränkungen helfen uns, semantisch äquivalente, aber schneller ausführbare Ausdrücke zu bestimmen, die mit existierenden Umsetzungen ausgeführt werden können. Unsere Anwendung monotoner Datenflußrahmen auf Transformationen erlaubt Gesamtprogrammanalysen, welche sowohl den Datenfluß zwischen Teilausdrücken als auch den Kontrollfluß zwischen Regeln berücksichtigen. Die darauf aufbauende Optimierung liefert schnellere semantisch äquivalente Transformationen für bestehende Umsetzungen. Fauler Baumaufbau spart bei teilweisem Zugriff auf eine Quelle Speicherplatz und Re- chenzeit, indem nur die tatsächlich betretenen Teile als Datenstrukturen im Hauptspeicher aufgebaut werden. Schlüssel dazu sind die Schachtelungseigenschaften von XML. Analog berechnen faule Transformationen nur die jeweils dynamisch zugegriffenen Teile ihres Ergebnisses. Schlüssel dazu sind die Konfluenz von Transformationen und das Vorhandensein alternativer Auswertungsreihenfolgen. Wie beim faulen Baumaufbau sind auch hier neue Umsetzungen von Transformationen nötig. Wie erzielten wir diese Fortschritte? Unsere formalen Modelle schlagen eine Brücke zwischen dem Anwendungsgebiet XML und den Disziplinen der Programmanalyse, der Optimierung und der formalen Sprachen. Aber erst unsere neuartigen Analyserepräsentationen machen sie auch tragfähig. Die ausführliche Version dieser Arbeit zeigt, daß die Brücke zweispurig ist. Ich hoffe, diese kurze Zusammenfassung hat Appetit auf mehr geweckt. Literatur [ASU86] Aho, A. V., Sethi, R., und Ullman, J. D.: Compilers: Principles, Techniques, and Tools. Addison Wesley. 1986. [NNH99] Nielson, F., Nielson, H. R., und Hankin, C. L.: Principles of Program Analysis. Springer- Verlag. 1999. [Sc02] Schmelzer, R.: Breaking xml to optimize performance. Technical report. ZapThink LLC.
- TextdokumentAdvanced slicing of sequential and concurrent programs(Ausgezeichnete Informatikdissertationen 2003, 2004) Krinke, JensProgram Slicing ist eine Technik zur Identifikation von Anweisungen, die andere Anweisungen beeinflussen können. Trotz seit nunmehr 25 Jahren anhaltender Forschung hat Program Slicing immer noch Probleme, die eine verbreitete Benutzung verhindern: Slices können zu groß oder zu unverständlich werden, oder ihre Berechnung kann zu teuer oder zu kompliziert für echte Programme sein. Diese Dissertation präsentiert Lösungen und Auswege aus diesen Problemen. Sie enthält einerseits eine Reihe von Slicing-Verfahren unterschiedlicher Präzision und Geschwindigkeit. Andererseits enthält sie verschiedenste Verfahren, die dem Benutzer helfen, Slices leichter zu verstehen indem die berechneten Slices mehr auf seine Bedürfnisse fokussiert werden. Alle vorgestellten Verfahren wurden im VALSOFT-System implementiert und gründlich evaluiert. Die dem Slicing zugrunde liegende Datenstruktur sind Programmabhängigkeitsgraphen. Diese können auch für andere Anwendungen benutzt werden: Ein neues Verfahren zur Entdeckung von dupliziertem Code identifiziert ähnliche Teilgraphen in Programmabhängigkeitsgraphen. Dieses Verfahren kann modifizierte Duplikate besser erkennen als andere Verfahren. Auf der theoretischen Seite präsentiert diese Dissertation ein hochpräzises Verfahren zum Slicing nebenläufiger prozeduraler Programme, wobei optimales Slicing bekannterweise nicht entscheidbar ist. Dieses Verfahren ist das erste zum Slicen nebenläufiger Programme, das nicht auf Inlining aufgerufener Prozeduren zurückgreift.
- TextdokumentVerified Java Bytecode Verification(Ausgezeichnete Informatikdissertationen 2003, 2004) Klein, GerwinDer Bytecode Verifier ist ein essenzieller Bestandteil der Sicherheitsarchitektur der Programmierplattform Java. Meine Dissertation stellt eine formale, ausführbare Spezifikation des Bytecode Verifiers vor sowie den Beweis, dass diese korrekt ist. Die Formalisierung, vollständig im Theorembeweiser Isabelle durchgeführt, besteht aus einem abstrakten Framework für Bytecode-Verifikation, das mit zunehmend ausdrucksstarken Typsystemen instanziiert wird. Diese decken sämtliche wichtigen Eigenschaften der Java-Plattform ab. Die Formalisierung liefert zwei ausführbare, verifizierte Bytecode Verifier: den Standard-Algorithmus, wie er auf normalen Desktop- Rechnern benutzt wird, sowie einen Lightweight Bytecode Verifier für eingebettete Systeme mit Ressourcenbeschränkungen wie z.B. Java SmartCards.
- TextdokumentKapazität und Planung von Wideband CDMA Systemen(Ausgezeichnete Informatikdissertationen 2003, 2004) Leibnitz, KenjiDas Ziel dieser Arbeit ist die Herleitung analytischer Modelle, um eine Leistungsbewertung von Mobilfunksystemen der dritten Generation (3G) zu ermöglichen. Als eine der wichtigsten Einflussfaktoren wird das dynamische Verhalten der Sendeleistungsregelung (engl. power control) erachtet. Die Aufgabe von Power Control ist es die Leistung der Sendestation derart einzustellen, dass sie möglichst minimal ist, jedoch auch den Mindestanforderungen für die empfangene Signalleistung genügt. Durch dieses dynamische Verhalten entsteht eine Wechselwirkung zwischen der Zellgröße, Kapazität und der Dienstgüte im System. Es ist daher von entscheidender Wichtigkeit vor der Einführung neuer Systeme die Systemstabilität zu untersuchen und alle Einflussfaktoren zu identifizieren.
- «
- 1 (current)
- 2
- 3
- »