D04 (2003) - Ausgezeichnete Informatikdissertationen
Dorothea Wagner et al. (Hrsg.)
GI-Edition - Lecture Notes in Informatics (LNI), D-4
Bonner Köllen Verlag (2003)
ISBN 3-88579-408-X
Autor*innen mit den meisten Dokumenten
Neueste Veröffentlichungen
- TextdokumentSupportive presentation for computer games(Ausgezeichnete Informatikdissertationen 2003, 2004) Halper, NicolasBisher konzentrierten sich die meisten Arbeiten in Bereich der Computergraphik auf Algorithmen zum Erstellen von Bildern, die im Hinblick auf gewisse Kriterien `gut aussehen.' Im Gegensatz dazu beurteilt ein allgemeinerer Ansatz Bilder dahingehend, wie effektiv sie bestimmte Informationen übermitteln. Darüber hinaus wird die Darstellung so optimiert, dass das Betrachtungserlebnis sowohl verbessert als auch beeinflusst werden kann. Dazu führen wir das Konzept der `unterstützenden Darstellung' ein, wobei die Planung der graphischen Darstellung darauf abzielt, das individuelle Betrachtungserlebnis zu optimieren. Um dies zu erreichen präsentieren wir empirische psychologische Hinweise, die nahelegen, dass graphische Darstellungen Benutzer-Entscheidungen auf neuartige Weise beeinflussen können. Des weiteren zeigen wir, dass unterstützende Darstellungen es Designern erlauben, sich auf die illustrative Aufgabe zu konzentrieren, indem sie Illustrations-Effekte auf visuelle Weise spezifizieren, ohne genaue Kenntnisse über die Einzelheiten der Umsetzungsprozesse zu benötigen. Außerdem entwickeln und verbessern wir Algorithmen innerhalb eines Systemmodells, so dass dieses viele Möglichkeiten zum Erzeugen visueller Effekte unterstützt. Somit ist die Beteiligung von verschiedenen Fachrichtungen innerhalb der Informatik, der Kunst und der Psychologie notwendig, um die `unterstützende Darstellung' auf eine solide theoretische und praktische Basis zu stellen, so dass dies neue Möglichkeiten und Herausforderungen für die zukünftige Ausrichtung und Forschung eröffnet.
- TextdokumentPlenoptic scene modelling from uncalibrated images sequences(Ausgezeichnete Informatikdissertationen 2003, 2004) Heigl, BennoDurch geeignete Kombination von Algorithmen aus den Bereichen Computergrafik und Rechnersehen wird es möglich, Szenen, die mit einer handgeführten Kamera aufgenommen wurden, aus beliebigen Blickrichtungen zu visualiseren.
- TextdokumentEin System zur Verarbeitung und Visualisierung von Voxeldaten(Ausgezeichnete Informatikdissertationen 2003, 2004) Beck, AndreasEin flexibles und umfangreiches Visualisierungsund Segmentierungssystem für Voxeldaten ( \? \? \? ) wurde entwickelt, das in verschiedenen Anwendungsbereichen Einsatz findet.
- TextdokumentSicherheit in Mobilen Ad hoc Netzwerken(Ausgezeichnete Informatikdissertationen 2003, 2004) Kargl, FrankIn jüngster Zeit entwickeln Forscher in aller Welt eine Vision von Netzwerken, welche anders aufgebaut sind als bisherige drahtlose Netze. So genannte Mo- bile Ad-Hoc Netzwerke (MANETs) sind vollkommen dezentral aufgebaut und kommen ohne feste Infrastruktur aus. Damit ermöglichen sie den Einsatz an Orten oder in Situationen, in denen der vorherige Aufbau einer Infrastruktur zur Vernetzung von Computern oder anderen elektronischen Geräten nicht möglich oder wünschenswert ist. Während der Aufbau solcher MANETs bereits recht gut verstanden ist, wurde ein Aspekt bisher eher vernachlässigt: der Schutz der entstehenden Netzwerke und seiner Teilnehmer vor den vielfältigen Angriffen, die hier möglich sind. So können Knoten beispielsweise den Routingprozess empfindlich stören oder Knoten können schlicht die Kooperation im Netz verweigern. Im Vergleich zu klassischen Netzwerken ermöglicht die Selbstorganisation also einige weitergehende Angriffe, so dass hier auch zusätzliche Schutzmaßnahmen nötig werden. Im Rahmen meiner Dissertation habe ich die besonderen Sicherheitsprobleme bei MANETs analysiert und eine integrierte Sicherheitsarchitektur für Mobile Ad-hoc Netzwerke mit dem Namen SAM“ entwickelt. ”
- TextdokumentVisualisierung diskreter und kontinuierlicher Tensorfelder(Ausgezeichnete Informatikdissertationen 2003, 2004) Hotz, IngridDiese Arbeit besteht im Wesentlichen aus zwei relativ eigenständigen Teilen, die in ihrer Entstehung jedoch eng miteinander verknüpft sind. Beide beschäftigen sich mit geometrischen Problemen im Kontext von Visualisierung. Im ersten Teil stelle ich zwei Algorithmen zur Berechnung charakteristischer Flächenkurven, Geodäten und Krümmungslinien, vor. Durch den geometrischen Ansatz sind sie sowohl für analytische sowie diskrete Flächen geeignet. Im Gegensatz zu klassischen Berechnungsmethoden, ist eine natürliche Anpassung der Schrittweite an die lokale Geometrie möglich, was eine effiziente und genaue Berechnung erlaubt. Der zweite Teil der Arbeit ist der Visualisierung von Tensorfeldern gewidmet. Die Interpretation symmetrischer Tensorfelder als Störung einer flachen Metrik, welche durch eine isometrischer Einbettungen dargestellt wird, führet zu einer intuitiven Darstellung der physikalischen Bedeutung der Tensorfelder. Im Gegensatz zu bisherigen Einbettungsverfahren beinhaltet meiner Methode keine prinzipielle Einschränkung an die Metrik. Sie basiert auf einem konstruktiven Ansatz, der das Problem der Mehrdeutigkeit, welches bei algebraischen Lösungsansätzen auftritt, löst. Erstmals ist es auch möglich automatisch nur Teilflächen einzubetten, falls keine globale Einbettung existiert.
- TextdokumentTechnologische Unterstützung didaktik-geleiteten Wissenstransfers(Ausgezeichnete Informatikdissertationen 2003, 2004) Auinger, AndreasDidaktikgeleiteter Wissenstransfer bedarf innovativer softwaretechnischen Konzepte und Lösungen. Neben traditionellen didaktischen Ansätzen wie unterrichtszentrierter Stufenund Phasenschemata sind vermehrt lernerzentrierte Konzepte in den webbasierten Wissenstransfer zu integrieren. Die verstärkte aktive Einflussnahme der Lernenden in den Transferprozess erfordert Features für selbstgesteuertes und handlungsorientiertes Lernen. Derart konstruktivistisch gestaltete Plattformen integrieren folglich Möglichkeiten zur Individualisierung und Personalisierung von Content und Interaktion, mit Features zur Kommunikation, Kollaboration und Gruppenbildung. Entscheidende Impulse zur Akzeptanz bringt die direkte Verknüpfung von Contentmit Kommunikationselementen, da mit deren Hilfe dem interaktiven Charakter des Transferprozesses unmittelbar Rechnung getragen werden kann. Die Implementierung der integrierten Features in der Web- Plattform SCHOLION WB+ erfolgte unter Berücksichtigung bestehender Er- kenntnisse zu lernerzentriertem Wissenstransfer und auf Basis einer umfassenden Evaluation bestehender Lernumgebungen. Die bestimmenden Konzepte der Plattform sind didaktisch erweiterte Lerntechnologie-Standards wie LOM, IMS und SCORM sowie die statische und dynamische Integration von Content und Lern- Management. Die Realisierung erfolgte mittels flexibler Web-Technologien wie Java-Servlets, XML, XSL und clientseitigen Scripts. Mit Hilfe einer eigens entwickelten Methodik zur empirischen Bewertung didaktikgeleiteten Wissenstransfers konnte neben dem funktional erfolgreichen Einsatz von SCHOLION WB+ positiver Einfluss auf die Lernendenakzeptanz durch kontextsensitive Transferprozesse im Rahmen universitärer Lehre nachgewiesen werden.
- TextdokumentMultiplikation in eingeschränkten Branchingprogrammmodellen(Ausgezeichnete Informatikdissertationen 2003, 2004) Wölfel, Philippund Ausblick Wir können nicht erwarten, auf die eingangs gestellte Frage nach der Komplexität der Multiplikation in naher Zukunft für irgendein allgemeines Rechenmodell wie Schaltkreise oder Branchingprogramme eine vollständige Antwort zu finden. Wir können aber versuchen, nach und nach zu umfassenderen Erkenntnissen über die Multiplikation zu gelangen und neue Techniken zum Nachweis oberer und unterer Schranken zu entwickeln, um auf diese Weise die Komplexität der Multiplikation besser einzugrenzen. Die Ergebnisse der Dissertation stellen einen weiteren Schritt in diese Richtung dar. Dass dies nicht der letzte war, zeichnet sich schon an einer Reihe weiterführender Erkenntnisse über die Branchingprogrammkomplexität der Multiplikation ab. So konnten z. B. in [BWW02] und [BW] exponentielle untere Schranken in weiteren eingeschränkten nichtdeterministischen FBDD-Modellen nachgewiesen werden und kürzlich zeigten Sauerhoff und Woelfel exponentielle untere Schranken für nichtdeterministische Branchingprogramme, bei denen jede Variable auf jedem graphtheoretischen Pfad konstant oft vorkommen darf [SW03]. Literatur [Br85] Bryant, R. E.: Symbolic manipulation of boolean functions using a graphical representation. Proceedings of the 22nd ACM/IEEE Design Automation Conference (DAC). S. 688-694. 1985. [Br86] Bryant, R. E.: Graph-ba
- TextdokumentOn non-standard fault models for logic digital circuits(Ausgezeichnete Informatikdissertationen 2003, 2004) Polian, IliaKonventionelle Testverfahren für integrierte Schaltungen sind zunehmend nicht mehr in der Lage, akzeptable Produktqualität zu gewährleisten. Ein möglicher Ausweg ist der Einsatz von verbesserten Modellen für Fertigungsdefekte (Nichtstandardfehlermodelle). Der erste Teil der Dissertation beschäftigt sich deshalb mit der Modellierung von so genannten Brückenfehlern, welche insbesondere partikelinduzierte Kurzschlüsse modellieren und daher näher an realistischen Defekten sind als die gewöhnlich betrachteten stuck-at-Fehler. Insbesondere die Berücksichtigung des Einflusses des Kurzschlusswiderstandes spiegelt die Gegebenheiten moderner Deep- Submicron-Technologien wider. Obwohl ein Kontinuum von Defekten unter Berücksichtigung nichttrivialer elektrischer Zusammenhänge modelliert wird, sind effiziente diskrete Simulationsalgorithmen möglich. Die einfachsten der vorgestellten Modelle wurden für den industriellen Einsatz optimiert; die Integration der komplexeren resistiven Modelle in die Werkzeuge eines führenden Entwurfsautomatisierungssoftware- Herstellers wird derzeit durchgeführt. Eine weitere zunehmend wichtige Defektklasse stellen die Verzögerungsdefekte dar, welche so genanntes Zweimustertesten erfordern. Der zweite Teil der Dissertation befasst sich mit Entwurfsmethoden, welche die Testbarkeit des Schaltkreises auf dynamische Defekte erhöhen. Ein Ansatz zur Festlegung mehrerer Prüfpfade und eine Selbsttestarchitektur werden vorgestellt. Zwei Anhänge beschreiben den Zusammenhang zwischen den Nichtstandardfehlermodellen und dem konventionellen stuck-at- Modell und ihren Einsatz in der formalen Verifikation.
- TextdokumentAufzählbarkeitsklassen von Turingmaschinen und endlichen Automaten(Ausgezeichnete Informatikdissertationen 2003, 2004) Tantau, TillDer Beitrag enthält eine Zusammenfassung der Dissertation n Structural Similarities of Finite Automata and Turing Machine Enumerability Classes. Die Dissertation [Ta03] eröffnet mit folgenden Worten: My Thesis: The enumerability and verboseness classes of finite automata on the one hand and of Turing machines on the other hand share numerous structural properties. They do not share these properties with intermediate resource-bounded computational models. Especially the finite automata versions of these classes have applications in areas unrelated to enumerability. Two methods that are used for the proofs of the structural similarities - elementary definitions of regular relations and branch diagonalisation - will be applicable to other proofs in automata, complexity, and recursion theory. Auf den folgenden 150 Seiten wird dann versucht, mittels etwa sechzig Sätzen, Korollaren und Lemmata diese These zu belegen und den Leser oder die Leserin von ihrer Richtigkeit zu überzeugen - nicht mehr und nicht weniger. Es wird sogar frech behauptet, man könne sich die weitere Lektüre der Arbeit sparen, sobald man von der {\tt>\hskip-.5e>}Thesis{\tt<\hskip-.5e<} überzeugt ist. Mein Hauptanliegen im vorliegenden Beitrag ist zu erläutern, was die obige These eigentlich genau besagt. Mathematische Exaktheit steht dabei weniger im Vordergrund als eine möglichst allgemein verständliche Darstellung der Ideen. Dazu werden zunächst die Konzepte wie Aufzählbarkeit oder Verboseness-Klassen genauer erklärt, dann die zentralen Resultate beschrieben, eine neue Beweismethode kurz angedeutet und zum Schluss Anwendungen skizziert. Die Konzepte 1.1 Turingmaschinen, endliche Automaten und Polynomialzeitmaschinen Schon der Titel der Dissertation verrät, dass es in ihr um Gemeinsamkeiten der beiden ältesten Maschinenmodelle der Informatik geht: Turingmaschinen und endliche Automaten. Grob gesprochen ist das Turingmaschinenmodell das mächtigste {\tt>\hskip-.5e>}sinnvolle{\tt<\hskip-.5e<} Maschinenmodell, das es gibt. {\tt>\hskip-.5e>}Mächtig{\tt<\hskip-.5e<} bedeutet hier, dass Turingmaschinen alles berechnen können, was sich überhaupt berechnen lässt. Da unklar ist, was die richtige Definition von {\tt>\hskip-.5e>}was sich überhaupt berechnen lässt{\tt<\hskip-.5e<} ist, ist es kein mathematischer Satz, dass Turingmaschinen allmächtig sind, sondern lediglich eine These, die aber der klangvollen Namen {\tt>\hskip-.5e>}Church'sche These{\tt<\hskip-.5e<} trägt. Praktisch kann man sich eine Turingmaschine als einen Rechner vorstellen, der über beliebig viel Speicher verfügt und der beliebig lange rechnen darf. Am anderen Ende des Spektrums der Maschinenmodelle finden sich die endlichen Automaten. Diese verarbeiten ihre Eingabe, indem sie sie einmal von links nach rechts lesen und am Ende sofort eine Ausgabe produzieren. Endliche Automaten benötigen keinerlei Speicher und ihre Rechenzeit ist proportional zur Eingabelänge. Vom praktischen Standpunkt aus sind Turingmaschinen viel zu mächtig, da sie Probleme spielend lösen können, die nachweislich nicht in vertretbarer Zeit (wie beispielsweise der zu erwartenden Lebensdauer des Universums) zu lösen sind. Endliche Automaten sind nicht mächtig genug, da sie manche Probleme nachweislich nicht lösen können, die ein Taschenrechner mit links löst. In der Komplexitätstheorie werden deshalb Modelle wie Polynomialzeitmaschinen betrachtet, die {\tt>\hskip-.5e>}in der Mitte liegen{\tt<\hskip-.5e<} und die die Fähigkeiten realer Computer realistischer modellieren.
- TextdokumentBessere Software durch Querschneidende Module(Ausgezeichnete Informatikdissertationen 2003, 2004) Ostermann, KlausGute Separierung der Belange in Softwaresystemen ist der Schlüssel, um mit wachsender Komplexität umzugehen. Die wichtigste Aufgabe von Programmiersprachen in Bezug auf dieses Ziel ist die Bereitstellung von geeigneten Mitteln, um das mentale Modell eines Domänenexperten so direkt wie möglich in einer Programmiersprache festhalten zu können und damit die intellektuelle Distanz zwischen dem mentalen Modell und dem Programmcode so gering wie möglich zu halten. Dies ist der Kontext, im dem die hier zusammengefasste Dissertation versucht, den aktuellen Stand der Technik voranzubringen. Ein besonderer Schwerpunkt liegt dabei auf Sprachkonzepten für die Unterstützung sogenannter “querschneidender Modelle”, die aus unterschiedlichen Sichten auf ein Softwaresystem resultieren und mit konventioneller Technologie zu Programmen mit schlechten softwaretechnologischen Eigenschaften wie Wartbarkeit und Wiederverwendbarkeit führen. Die Resultate dieser Arbeit bilden die Grundlage der Programmiersprache Caesar, die zur Zeit in mehreren industriellen Projekten evaluiert wird. Neue Sprachkonstrukte für eine bessere Separierung der Belange (separation of concerns) in der Softwareentwicklung werden benötigt! Diese These ist der Ausgangspunkt der diesem Dokument zugrundeliegenden Dissertation [Os03]. Zunächst einmal: Was ist gemeint mit “guter Separierung der Belange”? Ein Belang (concern) ist jede kohärente Angelegenheit in einer Problemdomäne. Ein Be- lang kann ein beliebig komplexes Konzept wie “Sicherheit” oder “Lohnbuchhaltung” sein, oder primitive Konzepte wie “warten auf ein Mausereignis”. Separierung der Belange ist eng verwandt mit Kompositionsund Dekompositionsmechanismen in Programmiersprachen, also die Partitionierung eines Softwaresystems in kleine Teile (Dekomposition) und das Zusammenbauen eines Softwaresystems anhand dieser kleinen Teile (Komposition). Diese Definition sagt jedoch nichts darüber, wie ein Softwaresystem dekomponiert werden soll. Zum Beispiel könnte ein Programm in zwei Teile zerlegt werden, bei dem ein Teil die geraden Zeilennummern und ein anderer Teil die ungeraden Zeilennummern enthält. Offensichtlich macht diese Dekomposition jedoch keinen Sinn. Wir benötigen Kriterien, die benutzt werden können, um geeignete Dekompositionen eines Systems zu finden. Dies ist der Punkt, an dem sich das Konzept der Separierung der Belange, welches auf Parnas [Pa72a] und Dijkstra [Di76] zurückgeht, als nützlich erweist. Dieses Konzept postuliert, dass jeder Teil eines dekomponierten Softwaresystems für einen wohldefinierten Aspekt eines Systems verantwortlich sein sollte. Jeder Teil sollte sowenig Wissen wie möglich über andere Teile eines Systems haben, so daß es möglich ist, jeden Aspekt einzeln und isoliert von allen anderen Aspekten zu betrachten. Bessere Software durch Querschneidende Module In konventionellen Programmiersprachen wird dieses Konzept durch Module unterstützt, die eine hierarchische Aufteilung der Softwaredomäne ermöglichen und damit eine direkte Abbildung hierarchischer Modelle ermöglichen. Die dieser Arbeit zugrunde liegende These ist, daß neben einer Unterstützung für hierarchische Modelle noch eine zweite Di- mension von Modellen durch Programmiersprachen unterstützt werden sollte, nämlich sogenannte querschneidende Modelle, die durch unterschiedliche Sichten desselben Systems zustandekommen. Der Rest dieses Artikels ist wie folgt strukturiert: In Abschnitt 1 wird kurz die Bedeutung guter Separierung der Belange für die Softwareentwicklung erläutert. In Abschnitt 2 wird der Begriff der querschneidenden Modelle eingeführt und dessen Bedeutung für die Softwaretechnologie erläutert. Schliesslich wird Abschnitt 3 einen kleinen Überblick darüber geben, wie querschneidende Modelle in der Programmiersprache Caesar unterstützt werden.
- «
- 1 (current)
- 2
- 3
- »