Logo des Repositoriums
 

D03 (2002) - Ausgezeichnete Informatikdissertationen

Dorothea Wagner et al. (Hrsg.)

(in deutsch)

GI-Edition - Lecture Notes in Informatics (LNI), D-3

Bonner Köllen Verlag (2003)

ISBN 3-88579-407-1

Autor*innen mit den meisten Dokumenten  

Auflistung nach:

Neueste Veröffentlichungen

1 - 10 von 20
  • Textdokument
    Kern Fisher Diskriminanten
    (Ausgezeichnete Informatikdissertationen 2002, 2003) Mika, Sebastian
    In der dieser Kurzfassung zugrundeliegenden Doktorarbeit wurden Lernmethoden die auf der Maximierung eines Rayleigh Koeffizienten beruhen untersucht. Es wurden nichtlineare Verallgemeinerungen von verschiedenen Methoden vorgeschlagen, unter anderem orientierter Hauptkomponentenanalyse und insbesondere Fishers Diskriminanten. Zentraler Aspekt der Arbeit ist die Anwendung des “Kerntricks” auf Rayleigh Koeffizienten bei gleichzeitiger Berücksichtigung der Komplexitätskontrolle im Rahmen der strukturellen Risikominimierung. Es wurde gezeigt, wie auf diesem Wege neue, machtvolle Algorithmen hergeleitet werden können deren Leistung dem heutigen Stand der Technik entspricht. In einem weiteren Teil wurde gezeigt, dass KFD als ein mathematisches (quadratisches) Optimierungsproblem formuliert werden kann. Aufbauend auf dieser Einsicht wird diskutiert und aufgezeigt, wie mathematische Optimierung als ein allgemeines Rahmenwerk für die Analyse von Lernverfahren dienen kann. Außerdem erlaubt diese Betrachtung die Herleitung mehrerer interessanter und nützlicher Varianten von KFD: robuste KFD, sparse KFD und lineare, sparse KFD. Schließlich wird diskutiert wie die den Lernproblemen zu Grunde liegenden Optimierungsprobleme effizient gelöst werden können. Um die Leistungsfähigkeit der vorgeschlagenen Algorithmen zu illustrieren und sie mit anderen Techniken zu vergleichen wird eine große Anzahl von experimentellen Resultaten Kern Fisher Diskriminanten präsentiert. Dabei werden sowohl künstliche als auch reale Daten verwandt. Zusammenfassend lässt sich sagen, das gezeigt wurde, dass Fishers Diskriminanten durch Nutzung von Kernen zu den besten heute verfügbaren Lernmethoden zählen. Ihre intuitive Interpretation, die Eigenschaft, dass Resultate erzeugt werden welche sich als Wahrscheinlichkeiten interpretieren lassen und ihre einfach Umsetzung machen sie für viele Anwendungen interessant. Andererseits wurde auch gezeigt, dass die meisten modernen Lernmethoden, abgesehen davon, dass sie sehr ähnliche Optimierungsprobleme lösen, kaum Unterscheide in ihrer Leitung zeigen. Es wäre sicher falsch aus dieser Arbeit den Schluss zu ziehen, dass KFD besser ist als andere Techniken. Aber KFD ist sicher genauso gut wie andere existierende Methoden. Und wie mit jeder Technik gibt es bestimmte Anwendungen wo KFD besonders geeignet ist. Literatur [Fis36] R.A. Fisher. The use of multiple measurements in taxonomic problems. Annals of Eugenics, 7:179-188, 1936. [FS97] Y. Freund and R.E. Schapire. A Decision-theoretic Generalization of On-line Learning and an Application to Boosting. Journal of Computer and System Sciences, $55(1)$:119-139, 1997. [MD89] J. Moody and C. Darken. Fast learning in networks of locally-tuned processing units. Neural Computation, $1(2)$:281-294, 1989. [Mik02] S. Mika. Kernel Fisher Discriminants. PhD thesis, University of Technology, Berlin, Germany, December 2002. [Rät01] G. Rätsch. Robust Boosting via Convex Optimization. PhD thesis, University of Potsdam, Neues Palais 10, 14469 Potsdam, Germany, October 2001. [Tip00] M.E. Tipping. The Relevance Vector Machine. In S.A. Solla, T.K. Leen, and K.-R. Müller, editors, Advances in Neural Information Processing Systems, volume 12, pages 652-658. MIT Press, 2000. [Vap98] V.N. Vapnik. Statistical Learning Theory. Wiley, New York, 1998. Sebastian Mika, geboren 1973, studierte an der Technischen Universität Berlin Informatik und Mathematik. Er hat 1998 sein Diplom in Informatik mit Auszeichnung erhalten. Von 1998 an hat Herr Mika an der Technischen Universität und dem Fraunhofer Institut FIRST gearbeitet. Neben einer Vielzahl wissenschaftlicher Publikationen und mehrere Auslandsaufenthalten, unter anderem bei AT\&T Research, Microsoft Research und der Australian National University, entstand seine Doktorarbeit. Im Dezember 2002 hat Herr Mika seine Promotion mit Auszeichnung an der Technischen Universität abgelegt.
  • Textdokument
    Semantikbasierte Ähnlichkeitssuche in Datenbanksystemen
    (Ausgezeichnete Informatikdissertationen 2002, 2003) Palkoska, Jürgen
    Semantikbasierte Ähnlichkeitssuchen repräsentieren eine fundamentale Funktion in vielen Anwendungsbereichen der Informatik. Allerdings existieren kaum Ansätze, die Konzepte für eine flexible Integration semantischer Metadaten in konventionelle Datenbankanwendungen zur Verfügung stellen. In der vorliegenden Dissertation wurden daher Methoden entwickelt, welche die Modellierung semantischer Metadaten innerhalb von Datenbanksystemen gestatten und dadurch flexible semantikbasierte Ähnlichkeitssuchen ermöglichen.
  • Textdokument
    Pure and applied fixed-point logics
    (Ausgezeichnete Informatikdissertationen 2002, 2003) Kreutzer, Stephan
  • Textdokument
    Density-based clustering in large databases using projections and visualizations
    (Ausgezeichnete Informatikdissertationen 2002, 2003) Hinneburg, Alexander
    Es wurde ein Rahmensystem für Clusteranalyse entwickelt, daß Cluster-Primitive für verschiedene Aufgabenstellungen bereit hält. Alle Cluster-Primitive basieren auf Dichteschätzung, die von der eigentlichen Clusteranalyse getrennt wurde. Diese Trennung führte zu Algorithmen mit besser Laufzeitkomplexität. Um hoch-dimensionale Daten zu bearbeiten wurde ein neuer Algorithmus vorgeschlagen, der Cluster in verschiedenen Projektionen Abbildung 2: HD-Eye Screenshot Version 1 and Version 2, Erklärung der Teilfenster in der oberen Abbildung im Uhrzeigersinn von Oben: Separator Baum, Icon Repräsentation von 1D Projektionen, 1D Projektion-Histogramm, 1D Dichte Diagramm, Icon Repräsentation für multi dimensionale Projektionen and 2D Dichte Diagramme. Density-Based Clustering in Large Databases (a) Color (b) Histogramm Abbildung 3: Beispiel für ein-dimensionale Color-Density Plots Abbildung 4: Beispiel für einen zwei-dimensionalen Color-Density Plot (a) 1 dimensional (b) multidimensional Abbildung 5: Struktur der Icons (a) ein-dimensional (b) mehr-dimensional Abbildung 6: Beispiele für Icons passend zu den vorhergehenden Color-Density Plot in Abb.3 und 4 (a) (b) (c) (d) Abbildung 7: (a) zeigt Color-Density Plots von molekular-biologischen Daten mit den separarierenden Minima für die Rauschschwelle $ξ= 0$. Aufgrund der Visulisierungen erhöht der Anwender die Rauschschwelle auf 2\%. $Teil(b)$ zeigt die veränderten Density-Plots, wobei die Intervalle mit einer Dichte unterhalb der Rauschschwelle gelb gezeichnet sind. Mit Hilfe der Rauschschwelle werden Trennpunkte entfernt, die durch leichte Schwankungen in der Datenverteilung verursacht werden. Die Teile (c,d) zeigen wie eine größere Menge von Repräsentanten die Approximationsqualität der Cluster verbessert. In dem Beispiel werden in den Daten des US Census Büros die dichten geclusterten Gebiete der Westund Ostküste getrennt. Density-Based Clustering in Large Databases des hoch-dimensionalen Datenraumes finden kann. Der neue Algorithmus kann Cluster finden, die von anderen bekannten Verfahren nicht gefunden werden. Zum Abschluß wurde das HD-Eye-System entwickelt, das automatische Verfahren mit Visualisierungstechniken verknüpft, um dem Nutzer eine bessere Grundlage für seine Entscheidungen zu liefern und um das Verständnis und die Einschätzung der Ergebnisse zu erleichtern. In zukünftigen Arbeiten kann der Algorithmus um das Finden von Clustern mit abhängigen Attributen erweitert werden. In diesem Rahmen gibt es auch Potential zur Entwicklung neuer Visualisierungstechniken. Ebenso können Verfahren für nominale Daten (im Gegensatz zu den hier genutzten nummerischen Daten) untersucht werden. Literatur [AGGR98] Agrawal, R., Gehrke, J., Gunopulos, D., und Raghavan, P.: Automatic subspace clustering of high dimensional data for data mining applications. In: SIGMOD 1998, Proceedings ACM SIGMOD International Conference on Management of Data, 1998, Seattle, Washington, USA. S. 94-105. ACM Press. 1998. [HAK00] Hinneburg, A., Aggarwal, C. C., und Keim, D. A.: What is the nearest neighbor in high dimensional spaces? In: VLDB'2000, Proceedings of 26th International Conference on Very Large Data Bases, Cairo, Egypt. S. 506-515. Morgan Kaufmann. 2000. [HK98] Hinneburg, A. und Keim, D.: An efficient approach to clustering in large multimedia databases with noise. In: KDD'98, Proc. of the 4th Int. Conf. on Knowledge Discovery and Data Mining. S. 58-65. AAAI Press. 1998. [HK99] Hinneburg, A. und Keim, D. A.: Optimal grid-clustering: Towards breaking the curse of dimensionality in high-dimensional clustering. In: VLDB'99, Proceedings of 25th International Conference on Very Large Data Bases, September 7-10, 1999, Edinburgh, Scotland, UK. S. 506-517. Morgan Kaufmann. 1999. [HKW02] Hinneburg, A., Keim, D. A., und Wawryniuk, M.: Hdeye: Visual mining of highdimensional data (demo). In: SIGMOD 2002, Proceedings ACM SIGMOD International Conference on Management of Data, June 3-6, 2002, USA. ACM Press. 2002. [HKW03a] Hinneburg, A., Keim, D. A., und Wawryniuk, M.: Using projections to visually cluster high-dimensional data. IEEE Computing in Science \& Engineering. $5(2)$:14-25. 2003. [HKW03b] Hinneburg, A., Keim, D. A., und Wawryniuk, M.: Hdeye: Visual mining of highdimensional data (demo). In: ICDE 2003, Proceedings of the 19th International Conference on Data Engineering, ICDE, India. IEEE Press. 2003. [HWK99] Hinneburg, A., Wawryniuk, M., und Keim, D. A.: Hdeye: Visual mining of highdimensional data. Computer Graphics \& Applications Journal. $19(5)$:22-31. September/October 1999. [Sc92] Scott, D.: Multivariate Density Estimation. Wiley and Sons. 1992. [Si86] Silverman, B. W.: Density Estimation for Statistics and Data Analysis. Chapman \& Hall. 1986.
  • Textdokument
    Statistisches Formenwissen in Variationsansätzen zur Bildsegmentierung
    (Ausgezeichnete Informatikdissertationen 2002, 2003) Cremers, Daniel
    In der vorliegenden Arbeit werden Bildsegmentierungsverfahren entwickelt, die es ermöglichen, gelerntes Wissen über die Silhouetten bekannter Objekte in den Segmentierungsprozess zu integrieren. Das statistisch repräsentierte Formwissen führt zu deutlich besserer Segmentierung vertrauter Objekte in Inputbildern, die durch Rauschen, teilweise Verdeckungen und störende Hintergrundsturkturen korrumpiert sind. Es wird ein Überblick über existierende Variationsansätze zur Bildsegmentierung gegeben. Anschließend werden die Diffusion Snakes vorgestellt, eine Symbiose zweier etablierter Ansätze, in der flächenbasierte Segmentierung mit einer splinebasierten Konturrepräsentation kombiniert wird. Es werden statistische Formmodelle verschiedener Komplexität eingeführt. Auf der Grundlage der Kernmethoden wird ein nichtlineares statistisches Formmodell entwickelt. Dieses Modell erlaubt es, mehrere dreidimensionale Objekte durch die Silhouetten verschiedener zweidimensionaler Ansichten zu kodieren und - trotz teilweiser Verdeckungen - über längere Videosequenzen zu verfolgen und sehr präzise zu segmentieren. Ein neues Verfahren intrinsischer Registrierung garantiert ein Formenwissen, welches invariant ist gegenüber Verschiebung, Drehung und Skalierung der entsprechenden Objekte. Im letzten Teil dieser Arbeit wird eine Modifikation des Datenterms der Kostenfunktion vorgeschlagen, die es ermöglicht, Objekte nicht aufgrund ihres Aussehens zu segmentieren, sondern aufgrund ihrer relativen Bewegung in einer gegebenen Videosequenz. Experimentelle Resultate belegen, daß sich bewegte Objekte auch dann noch präzise segmentieren und über Videosequenzen verfolgen lassen, wenn sich sowohl Objekt als auch Hintergrund bewegen und wenn sich Objekt und Hintergrund in ihrer Helligkeitsstruktur nicht unterscheiden. Der vorliegende Text liefert einen Abriß der Ergebnisse der Dissertation. Eine ausführlichere Darstellung findet sich in [Cr02].
  • Textdokument
    Spectral methods for efficient load balancing strategies
    (Ausgezeichnete Informatikdissertationen 2002, 2003) Elsässer, Robert
    Die gleichmäßige Verteilung der auftretenden Rechenlast bei gleichzeitiger Minimierung der Kommunikation ist von entscheidender Bedeutung für die effiziente Auslastung der Ressourcen eines parallelen Systems. Eine große Zahl von Lastverteilungsverfahren wurde entwickelt und durch theoretische Analyse, durch Experimente und durch Integration in Anwendungen untersucht. Unter diesen Verfahren spielen die k-Partitionierungsverfahren und die Diffusionsverfahren eine prominente Rolle. Diese Arbeit stellt eine Zusammenfassung meiner Dissertation dar, und beschäftigt sich einerseits mit der Konstruktion und Analyse neuer spektraler Schranken für die k-Sektionsweite von Graphen und andererseits mit der Entwicklung verbesserter diffusionsbasierter Lastbalancierungsverfahren für verschiedene Graphklassen und Netzwerktopologien. Zudem wird gezeigt, dass die bekannten Diffusionsverfahren auf heterogene Netze übertragen werden können, wobei die Konvergenzgeschwindigkeit von der Konditionszahl einer zugehörigen gewichteteten Laplacematrix abhängt.
  • Textdokument
    Programmierung, Spezifikation und Interaktives Beweisen
    (Ausgezeichnete Informatikdissertationen 2002, 2003) Stehr, Mark-Oliver
    Diese Dissertation mit dem englischen Titel “Programming, Specification, and Interactive Theorem Proving – Towards a Unified Language based on Equational Logic, Rewriting Logic, and Type Theory” bescha ̈ftigt sich mit dem Problem der Inflation von Formalismen in der Informatik im Kontext eines Spektrums formaler Methoden, das von Ausführung, über Analyse, bis zur formalen Verifikation reicht. Durch ihre Repräsentation in semantischen und logischen Rahmenwerken (semantic and logical frameworks), wie der Gleichungslogik (equational logic), der Termersetzungslogik (rewriting logic), oder der Typtheorie, wird ein Beitrag zum besseren Verständnis der Formalismen sowie ihrer Beziehungen untereinander geliefert. Konkret behandeln wir verschiedene Klassen von Petrinetzen, die UNITY-Temporallogik, das -Kalkül, Abadi und Cardellis -Kalkül, Milners -Kalkül, sowie verschiedene logische Typtheorien. Gleichzeitig studieren wir interessante Verallgemeinerungen der repräsentierten Formalismen und weisen die Praxistauglichkeit des formalen Rahmens durch eine Reihe von Anwendungen nach. In einem weiteren Vereinheitlichungsschritt wird ein neues Rahmenwerk, das Kalkül der offenen Konstruktionen (open calculus of constructions), eingeführt, das die Ideen der Gleichungslogik, der Termersetzungslogik, und der Typtheorie in einer relativ einfachen Sprache zusammenführt. Der Einsatz als Programmier- und Spezifikationssprache, sowie als Formalismus zum interaktiven Beweisen, wird anhand eines Prototyps und zahlreicher Beispiele demonstriert.
  • Textdokument
    Asymmetrische Evolutionsstrategien
    (Ausgezeichnete Informatikdissertationen 2002, 2003) Hildebrand, Lars
  • Textdokument
    Aspektorientierung und Programmfamilien im Betriebssystembau
    (Ausgezeichnete Informatikdissertationen 2002, 2003) Spinczyk, Olaf
    In der hier zusammengefassten Dissertation geht es um die Analyse, den Entwurf und die Implementierung von maßgeschneiderter Systemsoftware, wie sie beispielsweise im Bereich kleinster eingebetteter Systeme benötigt wird, um Hardware-Anforderungen zu reduzieren und damit Kosten zu sparen. Dabei wurde der Gedanke der Betriebssystemfamilie aufgegriffen und mit dem modernen Ansatz der aspektorientierten Programmierung (AOP) kombiniert. Die so entstandenen Methoden, Werkzeuge und Fallstudien zeigen neue Perspektiven für diese Klasse von Betriebssystemen auf und lassen sich auch auf andere Bereiche sinnvoll übertragen. Die vollständige Fassung der Arbeit ist elektronisch über die Universitätbibliothek Magdeburg (http://diglib.uni-magdeburg.de/) verfügbar .
  • Textdokument
    Merkmalhistogramme für die Suche in Bilddatenbanken
    (Ausgezeichnete Informatikdissertationen 2002, 2003) Siggelkow, Sven
    Invariante Merkmale bleiben unverändert, wenn die Daten mit einer vorgegebenen Transformationklasse verändern. Diese Eigenschaft kann in Anwendungen von Vorteil sein, bei denen die Orientierung oder absolute Position von Objekten irrelevant sind, z.B. bei der Suche nach ähnlichen Bildern. Wir verwenden hier Merkmale, welche sich durch Integration über die Transformationsgruppe der Euklidischen Bewe- gungen bilden lassen. Deren Berechnungskomplexität ist aber zu hoch, zumal es sich um der angestrebten Applikation um Bilddaten oder gar Volumendaten handelt. Anstatt die Merkmale vollständig zu berechnen, wird daher eine Monte-Carlo Schätzung des Integrals durchgeführt, so daß eine konstante Komplexita ̈t erreicht werden kann, ohne daß das Merkmal zu stark von der urspru ̈nglichen Berechnung abweichen würde. Um die Aussagekraft der Merkmale zu erhöhen werden mehrdimensionale Merkmalhistogramme statt der ursprünglichen Merkmale konstruiert. Durch eine gewichtete Zuweisung der Werte zu den Histogrammcontainern wird zudem die Unstetigkeit der Histogrammfunktion beseitigt. Schließlich werden die Methoden anhand von zwei Applikationen demonstriert: einem System zur allgemeinen Bildsuche, sowie einem Programm zur automatischen Suche von Briefmarken anhand von eingescannten Vorlagen.