Logo des Repositoriums
 

D03 (2002) - Ausgezeichnete Informatikdissertationen

Dorothea Wagner et al. (Hrsg.)

(in deutsch)

GI-Edition - Lecture Notes in Informatics (LNI), D-3

Bonner Köllen Verlag (2003)

ISBN 3-88579-407-1

Autor*innen mit den meisten Dokumenten  

Auflistung nach:

Neueste Veröffentlichungen

1 - 10 von 20
  • Textdokument
    Semantikbasierte Ähnlichkeitssuche in Datenbanksystemen
    (Ausgezeichnete Informatikdissertationen 2002, 2003) Palkoska, Jürgen
    Semantikbasierte Ähnlichkeitssuchen repräsentieren eine fundamentale Funktion in vielen Anwendungsbereichen der Informatik. Allerdings existieren kaum Ansätze, die Konzepte für eine flexible Integration semantischer Metadaten in konventionelle Datenbankanwendungen zur Verfügung stellen. In der vorliegenden Dissertation wurden daher Methoden entwickelt, welche die Modellierung semantischer Metadaten innerhalb von Datenbanksystemen gestatten und dadurch flexible semantikbasierte Ähnlichkeitssuchen ermöglichen.
  • Textdokument
    Pure and applied fixed-point logics
    (Ausgezeichnete Informatikdissertationen 2002, 2003) Kreutzer, Stephan
  • Textdokument
    Kern Fisher Diskriminanten
    (Ausgezeichnete Informatikdissertationen 2002, 2003) Mika, Sebastian
    In der dieser Kurzfassung zugrundeliegenden Doktorarbeit wurden Lernmethoden die auf der Maximierung eines Rayleigh Koeffizienten beruhen untersucht. Es wurden nichtlineare Verallgemeinerungen von verschiedenen Methoden vorgeschlagen, unter anderem orientierter Hauptkomponentenanalyse und insbesondere Fishers Diskriminanten. Zentraler Aspekt der Arbeit ist die Anwendung des “Kerntricks” auf Rayleigh Koeffizienten bei gleichzeitiger Berücksichtigung der Komplexitätskontrolle im Rahmen der strukturellen Risikominimierung. Es wurde gezeigt, wie auf diesem Wege neue, machtvolle Algorithmen hergeleitet werden können deren Leistung dem heutigen Stand der Technik entspricht. In einem weiteren Teil wurde gezeigt, dass KFD als ein mathematisches (quadratisches) Optimierungsproblem formuliert werden kann. Aufbauend auf dieser Einsicht wird diskutiert und aufgezeigt, wie mathematische Optimierung als ein allgemeines Rahmenwerk für die Analyse von Lernverfahren dienen kann. Außerdem erlaubt diese Betrachtung die Herleitung mehrerer interessanter und nützlicher Varianten von KFD: robuste KFD, sparse KFD und lineare, sparse KFD. Schließlich wird diskutiert wie die den Lernproblemen zu Grunde liegenden Optimierungsprobleme effizient gelöst werden können. Um die Leistungsfähigkeit der vorgeschlagenen Algorithmen zu illustrieren und sie mit anderen Techniken zu vergleichen wird eine große Anzahl von experimentellen Resultaten Kern Fisher Diskriminanten präsentiert. Dabei werden sowohl künstliche als auch reale Daten verwandt. Zusammenfassend lässt sich sagen, das gezeigt wurde, dass Fishers Diskriminanten durch Nutzung von Kernen zu den besten heute verfügbaren Lernmethoden zählen. Ihre intuitive Interpretation, die Eigenschaft, dass Resultate erzeugt werden welche sich als Wahrscheinlichkeiten interpretieren lassen und ihre einfach Umsetzung machen sie für viele Anwendungen interessant. Andererseits wurde auch gezeigt, dass die meisten modernen Lernmethoden, abgesehen davon, dass sie sehr ähnliche Optimierungsprobleme lösen, kaum Unterscheide in ihrer Leitung zeigen. Es wäre sicher falsch aus dieser Arbeit den Schluss zu ziehen, dass KFD besser ist als andere Techniken. Aber KFD ist sicher genauso gut wie andere existierende Methoden. Und wie mit jeder Technik gibt es bestimmte Anwendungen wo KFD besonders geeignet ist. Literatur [Fis36] R.A. Fisher. The use of multiple measurements in taxonomic problems. Annals of Eugenics, 7:179-188, 1936. [FS97] Y. Freund and R.E. Schapire. A Decision-theoretic Generalization of On-line Learning and an Application to Boosting. Journal of Computer and System Sciences, $55(1)$:119-139, 1997. [MD89] J. Moody and C. Darken. Fast learning in networks of locally-tuned processing units. Neural Computation, $1(2)$:281-294, 1989. [Mik02] S. Mika. Kernel Fisher Discriminants. PhD thesis, University of Technology, Berlin, Germany, December 2002. [Rät01] G. Rätsch. Robust Boosting via Convex Optimization. PhD thesis, University of Potsdam, Neues Palais 10, 14469 Potsdam, Germany, October 2001. [Tip00] M.E. Tipping. The Relevance Vector Machine. In S.A. Solla, T.K. Leen, and K.-R. Müller, editors, Advances in Neural Information Processing Systems, volume 12, pages 652-658. MIT Press, 2000. [Vap98] V.N. Vapnik. Statistical Learning Theory. Wiley, New York, 1998. Sebastian Mika, geboren 1973, studierte an der Technischen Universität Berlin Informatik und Mathematik. Er hat 1998 sein Diplom in Informatik mit Auszeichnung erhalten. Von 1998 an hat Herr Mika an der Technischen Universität und dem Fraunhofer Institut FIRST gearbeitet. Neben einer Vielzahl wissenschaftlicher Publikationen und mehrere Auslandsaufenthalten, unter anderem bei AT\&T Research, Microsoft Research und der Australian National University, entstand seine Doktorarbeit. Im Dezember 2002 hat Herr Mika seine Promotion mit Auszeichnung an der Technischen Universität abgelegt.
  • Textdokument
    Die Ausdrucksstärke der Logik erster Stufe mit eingebauten Prädikaten
    (Ausgezeichnete Informatikdissertationen 2002, 2003) Scheikardt, Nicole
    Diese Arbeit ist in der Theoretischen Informatik positioniert, und zwar in den Fachgebieten Komplexitätstheorie, mathematische Logik und Datenbanktheorie. Die Arbeit beschäftigt sich mit der Ausdrucksstärke der Logik erster Stufe auf Strukturen mit eingebauten Prädikaten wie z.B. lineare Ordnung, Addition und Multiplikation. Die Hauptergebnisse lassen sich den drei Teilbereichen Arithmetik und ”Zählquantoren“, die Crane Beach-Vermutung“ und Kollaps-Resultate in der Datenbanktheorie“ zuordnen. Ziel des hier vorliegenden Artikels ist, einen Einblick in die Fragestellungen und Ergebnisse zu diesen drei Themenkreisen zu geben.
  • Textdokument
    Merkmalhistogramme für die Suche in Bilddatenbanken
    (Ausgezeichnete Informatikdissertationen 2002, 2003) Siggelkow, Sven
    Invariante Merkmale bleiben unverändert, wenn die Daten mit einer vorgegebenen Transformationklasse verändern. Diese Eigenschaft kann in Anwendungen von Vorteil sein, bei denen die Orientierung oder absolute Position von Objekten irrelevant sind, z.B. bei der Suche nach ähnlichen Bildern. Wir verwenden hier Merkmale, welche sich durch Integration über die Transformationsgruppe der Euklidischen Bewe- gungen bilden lassen. Deren Berechnungskomplexität ist aber zu hoch, zumal es sich um der angestrebten Applikation um Bilddaten oder gar Volumendaten handelt. Anstatt die Merkmale vollständig zu berechnen, wird daher eine Monte-Carlo Schätzung des Integrals durchgeführt, so daß eine konstante Komplexita ̈t erreicht werden kann, ohne daß das Merkmal zu stark von der urspru ̈nglichen Berechnung abweichen würde. Um die Aussagekraft der Merkmale zu erhöhen werden mehrdimensionale Merkmalhistogramme statt der ursprünglichen Merkmale konstruiert. Durch eine gewichtete Zuweisung der Werte zu den Histogrammcontainern wird zudem die Unstetigkeit der Histogrammfunktion beseitigt. Schließlich werden die Methoden anhand von zwei Applikationen demonstriert: einem System zur allgemeinen Bildsuche, sowie einem Programm zur automatischen Suche von Briefmarken anhand von eingescannten Vorlagen.
  • Textdokument
    Asymmetrische Evolutionsstrategien
    (Ausgezeichnete Informatikdissertationen 2002, 2003) Hildebrand, Lars
  • Textdokument
    Aspektorientierung und Programmfamilien im Betriebssystembau
    (Ausgezeichnete Informatikdissertationen 2002, 2003) Spinczyk, Olaf
    In der hier zusammengefassten Dissertation geht es um die Analyse, den Entwurf und die Implementierung von maßgeschneiderter Systemsoftware, wie sie beispielsweise im Bereich kleinster eingebetteter Systeme benötigt wird, um Hardware-Anforderungen zu reduzieren und damit Kosten zu sparen. Dabei wurde der Gedanke der Betriebssystemfamilie aufgegriffen und mit dem modernen Ansatz der aspektorientierten Programmierung (AOP) kombiniert. Die so entstandenen Methoden, Werkzeuge und Fallstudien zeigen neue Perspektiven für diese Klasse von Betriebssystemen auf und lassen sich auch auf andere Bereiche sinnvoll übertragen. Die vollständige Fassung der Arbeit ist elektronisch über die Universitätbibliothek Magdeburg (http://diglib.uni-magdeburg.de/) verfügbar .
  • Textdokument
    Neue Anwendungen von SPQR-Bäumen im Graphenzeichnen
    (Ausgezeichnete Informatikdissertationen 2002, 2003) Weiskircher, René
    Wir untersuchen zwei Probleme auf dem Gebiet des Zeichnens von Gra- phen. Bei beiden Problemen geht es darum, eine Funktion über der Menge aller Einbettungen eines planaren Graphen zu optimieren und wir verwenden jeweils SPQR- Bäume um die Probleme zu lösen. Das erste von uns betrachtete Problem ist das Einfügen einer zusätzlichen Kante in einen planaren Graphen mit möglichst wenigen Kreuzungen. Dies is der erste Algorithmus, der das Problem löst und er hat lineare Laufzeit. Das zweite Problem ist das Berechnen einer orthogonalen Zeichnung mit der minimalen Anzahl von Knicken. Es ist bekannt, dass dieses Problem NP-schwer ist. Hier benutzen wir den SPQR-Baum, um ein ganzzahliges lineares Programm zu entwickeln, dessen Lösungen den Einbettungen des Graphen entsprechen. Dies ist die Grundlage für unseren Algorithmus für die Berechnung einer knick-minimalen Zeichnung, der sich in unseren Experimenten im Vergleich mit der bisher verwendeten Methode überlegen gezeigt hat.
  • Textdokument
    Programmierung, Spezifikation und Interaktives Beweisen
    (Ausgezeichnete Informatikdissertationen 2002, 2003) Stehr, Mark-Oliver
    Diese Dissertation mit dem englischen Titel “Programming, Specification, and Interactive Theorem Proving – Towards a Unified Language based on Equational Logic, Rewriting Logic, and Type Theory” bescha ̈ftigt sich mit dem Problem der Inflation von Formalismen in der Informatik im Kontext eines Spektrums formaler Methoden, das von Ausführung, über Analyse, bis zur formalen Verifikation reicht. Durch ihre Repräsentation in semantischen und logischen Rahmenwerken (semantic and logical frameworks), wie der Gleichungslogik (equational logic), der Termersetzungslogik (rewriting logic), oder der Typtheorie, wird ein Beitrag zum besseren Verständnis der Formalismen sowie ihrer Beziehungen untereinander geliefert. Konkret behandeln wir verschiedene Klassen von Petrinetzen, die UNITY-Temporallogik, das -Kalkül, Abadi und Cardellis -Kalkül, Milners -Kalkül, sowie verschiedene logische Typtheorien. Gleichzeitig studieren wir interessante Verallgemeinerungen der repräsentierten Formalismen und weisen die Praxistauglichkeit des formalen Rahmens durch eine Reihe von Anwendungen nach. In einem weiteren Vereinheitlichungsschritt wird ein neues Rahmenwerk, das Kalkül der offenen Konstruktionen (open calculus of constructions), eingeführt, das die Ideen der Gleichungslogik, der Termersetzungslogik, und der Typtheorie in einer relativ einfachen Sprache zusammenführt. Der Einsatz als Programmier- und Spezifikationssprache, sowie als Formalismus zum interaktiven Beweisen, wird anhand eines Prototyps und zahlreicher Beispiele demonstriert.
  • Textdokument
    Statistisches Formenwissen in Variationsansätzen zur Bildsegmentierung
    (Ausgezeichnete Informatikdissertationen 2002, 2003) Cremers, Daniel
    In der vorliegenden Arbeit werden Bildsegmentierungsverfahren entwickelt, die es ermöglichen, gelerntes Wissen über die Silhouetten bekannter Objekte in den Segmentierungsprozess zu integrieren. Das statistisch repräsentierte Formwissen führt zu deutlich besserer Segmentierung vertrauter Objekte in Inputbildern, die durch Rauschen, teilweise Verdeckungen und störende Hintergrundsturkturen korrumpiert sind. Es wird ein Überblick über existierende Variationsansätze zur Bildsegmentierung gegeben. Anschließend werden die Diffusion Snakes vorgestellt, eine Symbiose zweier etablierter Ansätze, in der flächenbasierte Segmentierung mit einer splinebasierten Konturrepräsentation kombiniert wird. Es werden statistische Formmodelle verschiedener Komplexität eingeführt. Auf der Grundlage der Kernmethoden wird ein nichtlineares statistisches Formmodell entwickelt. Dieses Modell erlaubt es, mehrere dreidimensionale Objekte durch die Silhouetten verschiedener zweidimensionaler Ansichten zu kodieren und - trotz teilweiser Verdeckungen - über längere Videosequenzen zu verfolgen und sehr präzise zu segmentieren. Ein neues Verfahren intrinsischer Registrierung garantiert ein Formenwissen, welches invariant ist gegenüber Verschiebung, Drehung und Skalierung der entsprechenden Objekte. Im letzten Teil dieser Arbeit wird eine Modifikation des Datenterms der Kostenfunktion vorgeschlagen, die es ermöglicht, Objekte nicht aufgrund ihres Aussehens zu segmentieren, sondern aufgrund ihrer relativen Bewegung in einer gegebenen Videosequenz. Experimentelle Resultate belegen, daß sich bewegte Objekte auch dann noch präzise segmentieren und über Videosequenzen verfolgen lassen, wenn sich sowohl Objekt als auch Hintergrund bewegen und wenn sich Objekt und Hintergrund in ihrer Helligkeitsstruktur nicht unterscheiden. Der vorliegende Text liefert einen Abriß der Ergebnisse der Dissertation. Eine ausführlichere Darstellung findet sich in [Cr02].