D03 (2002) - Ausgezeichnete Informatikdissertationen
Dorothea Wagner et al. (Hrsg.)
(in deutsch)
GI-Edition - Lecture Notes in Informatics (LNI), D-3
Bonner Köllen Verlag (2003)
ISBN 3-88579-407-1
Auflistung D03 (2002) - Ausgezeichnete Informatikdissertationen nach Erscheinungsdatum
1 - 10 von 20
Treffer pro Seite
Sortieroptionen
- TextdokumentDensity-based clustering in large databases using projections and visualizations(Ausgezeichnete Informatikdissertationen 2002, 2003) Hinneburg, AlexanderEs wurde ein Rahmensystem für Clusteranalyse entwickelt, daß Cluster-Primitive für verschiedene Aufgabenstellungen bereit hält. Alle Cluster-Primitive basieren auf Dichteschätzung, die von der eigentlichen Clusteranalyse getrennt wurde. Diese Trennung führte zu Algorithmen mit besser Laufzeitkomplexität. Um hoch-dimensionale Daten zu bearbeiten wurde ein neuer Algorithmus vorgeschlagen, der Cluster in verschiedenen Projektionen Abbildung 2: HD-Eye Screenshot Version 1 and Version 2, Erklärung der Teilfenster in der oberen Abbildung im Uhrzeigersinn von Oben: Separator Baum, Icon Repräsentation von 1D Projektionen, 1D Projektion-Histogramm, 1D Dichte Diagramm, Icon Repräsentation für multi dimensionale Projektionen and 2D Dichte Diagramme. Density-Based Clustering in Large Databases (a) Color (b) Histogramm Abbildung 3: Beispiel für ein-dimensionale Color-Density Plots Abbildung 4: Beispiel für einen zwei-dimensionalen Color-Density Plot (a) 1 dimensional (b) multidimensional Abbildung 5: Struktur der Icons (a) ein-dimensional (b) mehr-dimensional Abbildung 6: Beispiele für Icons passend zu den vorhergehenden Color-Density Plot in Abb.3 und 4 (a) (b) (c) (d) Abbildung 7: (a) zeigt Color-Density Plots von molekular-biologischen Daten mit den separarierenden Minima für die Rauschschwelle $ξ= 0$. Aufgrund der Visulisierungen erhöht der Anwender die Rauschschwelle auf 2\%. $Teil(b)$ zeigt die veränderten Density-Plots, wobei die Intervalle mit einer Dichte unterhalb der Rauschschwelle gelb gezeichnet sind. Mit Hilfe der Rauschschwelle werden Trennpunkte entfernt, die durch leichte Schwankungen in der Datenverteilung verursacht werden. Die Teile (c,d) zeigen wie eine größere Menge von Repräsentanten die Approximationsqualität der Cluster verbessert. In dem Beispiel werden in den Daten des US Census Büros die dichten geclusterten Gebiete der Westund Ostküste getrennt. Density-Based Clustering in Large Databases des hoch-dimensionalen Datenraumes finden kann. Der neue Algorithmus kann Cluster finden, die von anderen bekannten Verfahren nicht gefunden werden. Zum Abschluß wurde das HD-Eye-System entwickelt, das automatische Verfahren mit Visualisierungstechniken verknüpft, um dem Nutzer eine bessere Grundlage für seine Entscheidungen zu liefern und um das Verständnis und die Einschätzung der Ergebnisse zu erleichtern. In zukünftigen Arbeiten kann der Algorithmus um das Finden von Clustern mit abhängigen Attributen erweitert werden. In diesem Rahmen gibt es auch Potential zur Entwicklung neuer Visualisierungstechniken. Ebenso können Verfahren für nominale Daten (im Gegensatz zu den hier genutzten nummerischen Daten) untersucht werden. Literatur [AGGR98] Agrawal, R., Gehrke, J., Gunopulos, D., und Raghavan, P.: Automatic subspace clustering of high dimensional data for data mining applications. In: SIGMOD 1998, Proceedings ACM SIGMOD International Conference on Management of Data, 1998, Seattle, Washington, USA. S. 94-105. ACM Press. 1998. [HAK00] Hinneburg, A., Aggarwal, C. C., und Keim, D. A.: What is the nearest neighbor in high dimensional spaces? In: VLDB'2000, Proceedings of 26th International Conference on Very Large Data Bases, Cairo, Egypt. S. 506-515. Morgan Kaufmann. 2000. [HK98] Hinneburg, A. und Keim, D.: An efficient approach to clustering in large multimedia databases with noise. In: KDD'98, Proc. of the 4th Int. Conf. on Knowledge Discovery and Data Mining. S. 58-65. AAAI Press. 1998. [HK99] Hinneburg, A. und Keim, D. A.: Optimal grid-clustering: Towards breaking the curse of dimensionality in high-dimensional clustering. In: VLDB'99, Proceedings of 25th International Conference on Very Large Data Bases, September 7-10, 1999, Edinburgh, Scotland, UK. S. 506-517. Morgan Kaufmann. 1999. [HKW02] Hinneburg, A., Keim, D. A., und Wawryniuk, M.: Hdeye: Visual mining of highdimensional data (demo). In: SIGMOD 2002, Proceedings ACM SIGMOD International Conference on Management of Data, June 3-6, 2002, USA. ACM Press. 2002. [HKW03a] Hinneburg, A., Keim, D. A., und Wawryniuk, M.: Using projections to visually cluster high-dimensional data. IEEE Computing in Science \& Engineering. $5(2)$:14-25. 2003. [HKW03b] Hinneburg, A., Keim, D. A., und Wawryniuk, M.: Hdeye: Visual mining of highdimensional data (demo). In: ICDE 2003, Proceedings of the 19th International Conference on Data Engineering, ICDE, India. IEEE Press. 2003. [HWK99] Hinneburg, A., Wawryniuk, M., und Keim, D. A.: Hdeye: Visual mining of highdimensional data. Computer Graphics \& Applications Journal. $19(5)$:22-31. September/October 1999. [Sc92] Scott, D.: Multivariate Density Estimation. Wiley and Sons. 1992. [Si86] Silverman, B. W.: Density Estimation for Statistics and Data Analysis. Chapman \& Hall. 1986.
- TextdokumentArchitektur und Entwurfsfluss zur Unterstützung der Anwendungsparallelität durch rekonfigurierbare Rechnersysteme(Ausgezeichnete Informatikdissertationen 2002, 2003) Sawitzki, SergeiSeit den Anfängen des rekonfigurierbaren Rechnens war die Vereinbarung von Prinzipien der parallelen und rekonfigurierbaren Verarbeitung ein wichtiger Forschungsschwerpunkt. Es blieb jedoch fraglich, ob es möglich ist, ein Ent- wurfsraummodell, eine universelle Architekturvorlage und eine Werkzeugumgebung zur Unterstützung von sowohl Befehls- als auch Datenparallelität auf verschiedenen Granularitätsstufen zu vereinigen. Diese Arbeit stellt die ReSArT Architekturvorlage sowie die DEfInE Entwurfsumgebung vor, womit diese Frage positiv beantwortet wird. Um die Machbarkeit und Lebendigkeit des Konzeptes zu beweisen, wurden ver- schiedene mit ReSArT und DEfInE erzeugte Architekturinstanzen mit einem Satz von 10 Benchmarks getestet und zeigten für eine prototypische Implementierung bereits vielversprechende Resultate.
- TextdokumentStatistisches Formenwissen in Variationsansätzen zur Bildsegmentierung(Ausgezeichnete Informatikdissertationen 2002, 2003) Cremers, DanielIn der vorliegenden Arbeit werden Bildsegmentierungsverfahren entwickelt, die es ermöglichen, gelerntes Wissen über die Silhouetten bekannter Objekte in den Segmentierungsprozess zu integrieren. Das statistisch repräsentierte Formwissen führt zu deutlich besserer Segmentierung vertrauter Objekte in Inputbildern, die durch Rauschen, teilweise Verdeckungen und störende Hintergrundsturkturen korrumpiert sind. Es wird ein Überblick über existierende Variationsansätze zur Bildsegmentierung gegeben. Anschließend werden die Diffusion Snakes vorgestellt, eine Symbiose zweier etablierter Ansätze, in der flächenbasierte Segmentierung mit einer splinebasierten Konturrepräsentation kombiniert wird. Es werden statistische Formmodelle verschiedener Komplexität eingeführt. Auf der Grundlage der Kernmethoden wird ein nichtlineares statistisches Formmodell entwickelt. Dieses Modell erlaubt es, mehrere dreidimensionale Objekte durch die Silhouetten verschiedener zweidimensionaler Ansichten zu kodieren und - trotz teilweiser Verdeckungen - über längere Videosequenzen zu verfolgen und sehr präzise zu segmentieren. Ein neues Verfahren intrinsischer Registrierung garantiert ein Formenwissen, welches invariant ist gegenüber Verschiebung, Drehung und Skalierung der entsprechenden Objekte. Im letzten Teil dieser Arbeit wird eine Modifikation des Datenterms der Kostenfunktion vorgeschlagen, die es ermöglicht, Objekte nicht aufgrund ihres Aussehens zu segmentieren, sondern aufgrund ihrer relativen Bewegung in einer gegebenen Videosequenz. Experimentelle Resultate belegen, daß sich bewegte Objekte auch dann noch präzise segmentieren und über Videosequenzen verfolgen lassen, wenn sich sowohl Objekt als auch Hintergrund bewegen und wenn sich Objekt und Hintergrund in ihrer Helligkeitsstruktur nicht unterscheiden. Der vorliegende Text liefert einen Abriß der Ergebnisse der Dissertation. Eine ausführlichere Darstellung findet sich in [Cr02].
- TextdokumentSpectral methods for efficient load balancing strategies(Ausgezeichnete Informatikdissertationen 2002, 2003) Elsässer, RobertDie gleichmäßige Verteilung der auftretenden Rechenlast bei gleichzeitiger Minimierung der Kommunikation ist von entscheidender Bedeutung für die effiziente Auslastung der Ressourcen eines parallelen Systems. Eine große Zahl von Lastverteilungsverfahren wurde entwickelt und durch theoretische Analyse, durch Experimente und durch Integration in Anwendungen untersucht. Unter diesen Verfahren spielen die k-Partitionierungsverfahren und die Diffusionsverfahren eine prominente Rolle. Diese Arbeit stellt eine Zusammenfassung meiner Dissertation dar, und beschäftigt sich einerseits mit der Konstruktion und Analyse neuer spektraler Schranken für die k-Sektionsweite von Graphen und andererseits mit der Entwicklung verbesserter diffusionsbasierter Lastbalancierungsverfahren für verschiedene Graphklassen und Netzwerktopologien. Zudem wird gezeigt, dass die bekannten Diffusionsverfahren auf heterogene Netze übertragen werden können, wobei die Konvergenzgeschwindigkeit von der Konditionszahl einer zugehörigen gewichteteten Laplacematrix abhängt.
- TextdokumentXML als Basistechnologie für das Content Management integrierter Medienprodukte(Ausgezeichnete Informatikdissertationen 2002, 2003) Rawolle, JoachimDie Medienindustrie befindet sich derzeit in einer technisch induzierten Umbruchphase. Neben die klassischen Medien wie etwa Print und Rundfunk treten die neuen, auf digitalen Technologien beruhenden Medien wie etwa das Internet und das digitale Fernsehen. Die durch gehende Digitalisierung bei der Erzeugung, Bündelung und Distribution von Inhalten ermöglicht dabei vielfältige Ansatzpunkte zur Integration verschiedener, vormals getrennter Medienprodukte und -dienste. Vor diesem Hintergrund untersucht der Beitrag die produktpolitische Ausgestaltung und die technisch-organisatorische Umsetzung integrierter Medienprodukte. Dabei werden insbesondere innovative Konzepte und Technologien wie Content-Management-Systeme und die eXtensible Markup Language (XML) berücksichtigt. Außerdem geht der Beitrag ökonomisch orientierten Fragestellungen nach, z.B. der nach den Auswirkungen auf die Kostenstrukturen in der Herstellung, und zeigt strategische Implikationen auf.
- TextdokumentOnline analytical processing with a cluster of databases(Ausgezeichnete Informatikdissertationen 2002, 2003) Röhm, UweEine attraktive Plattform für große Informationssysteme sind Datenbankcluster. Sie bieten hohe Leistung, so genannte scale-out“ Skalierbarkeit, Fehlerto- ” leranz und ein sehr gutes Preis-/Leistungsverhältnis. Die Herausforderung ist dabei, ein System zu entwickeln, das sowohl Skalierbarkeit und Leistungsfähigkeit, als auch transaktionelle Garantien in sich vereint. Diese Arbeit untersucht zentrale Aspekte von Datenbankclustern und ihrer Leistungsfähigkeit bei der Verwendung für Online Analytical Processing. Das Ziel ist eine skalierbare Infrastruktur für online Decision Support Systeme, die insbesondere Benutzern die Analyse aktueller Daten erlaubt. Die Arbeit verfolgt dabei einen Ansatz, der auf einer Koordinationsmiddleware basiert. Es werden innovative Algorithmen zur leistungsfähigen Anfrageverteilung basierend auf approximierten Cache- Zuständen sowie ein neuartiger Ansatz zur koordinierten Replikationsverwaltung für große Cluster vorgestellt. Die Kombination dieser Techniken ermöglicht effizientes Online Analytical Processing mit einem Datenbankcluster, wobei Klienten Resul- ” tataktualität“ gegen Anfragegeschwindigkeit eintauschen können und darüber hinaus sogar in die Lage versetzt werden, Daten vom neusten Stand zu analysieren.
- TextdokumentKern Fisher Diskriminanten(Ausgezeichnete Informatikdissertationen 2002, 2003) Mika, SebastianIn der dieser Kurzfassung zugrundeliegenden Doktorarbeit wurden Lernmethoden die auf der Maximierung eines Rayleigh Koeffizienten beruhen untersucht. Es wurden nichtlineare Verallgemeinerungen von verschiedenen Methoden vorgeschlagen, unter anderem orientierter Hauptkomponentenanalyse und insbesondere Fishers Diskriminanten. Zentraler Aspekt der Arbeit ist die Anwendung des “Kerntricks” auf Rayleigh Koeffizienten bei gleichzeitiger Berücksichtigung der Komplexitätskontrolle im Rahmen der strukturellen Risikominimierung. Es wurde gezeigt, wie auf diesem Wege neue, machtvolle Algorithmen hergeleitet werden können deren Leistung dem heutigen Stand der Technik entspricht. In einem weiteren Teil wurde gezeigt, dass KFD als ein mathematisches (quadratisches) Optimierungsproblem formuliert werden kann. Aufbauend auf dieser Einsicht wird diskutiert und aufgezeigt, wie mathematische Optimierung als ein allgemeines Rahmenwerk für die Analyse von Lernverfahren dienen kann. Außerdem erlaubt diese Betrachtung die Herleitung mehrerer interessanter und nützlicher Varianten von KFD: robuste KFD, sparse KFD und lineare, sparse KFD. Schließlich wird diskutiert wie die den Lernproblemen zu Grunde liegenden Optimierungsprobleme effizient gelöst werden können. Um die Leistungsfähigkeit der vorgeschlagenen Algorithmen zu illustrieren und sie mit anderen Techniken zu vergleichen wird eine große Anzahl von experimentellen Resultaten Kern Fisher Diskriminanten präsentiert. Dabei werden sowohl künstliche als auch reale Daten verwandt. Zusammenfassend lässt sich sagen, das gezeigt wurde, dass Fishers Diskriminanten durch Nutzung von Kernen zu den besten heute verfügbaren Lernmethoden zählen. Ihre intuitive Interpretation, die Eigenschaft, dass Resultate erzeugt werden welche sich als Wahrscheinlichkeiten interpretieren lassen und ihre einfach Umsetzung machen sie für viele Anwendungen interessant. Andererseits wurde auch gezeigt, dass die meisten modernen Lernmethoden, abgesehen davon, dass sie sehr ähnliche Optimierungsprobleme lösen, kaum Unterscheide in ihrer Leitung zeigen. Es wäre sicher falsch aus dieser Arbeit den Schluss zu ziehen, dass KFD besser ist als andere Techniken. Aber KFD ist sicher genauso gut wie andere existierende Methoden. Und wie mit jeder Technik gibt es bestimmte Anwendungen wo KFD besonders geeignet ist. Literatur [Fis36] R.A. Fisher. The use of multiple measurements in taxonomic problems. Annals of Eugenics, 7:179-188, 1936. [FS97] Y. Freund and R.E. Schapire. A Decision-theoretic Generalization of On-line Learning and an Application to Boosting. Journal of Computer and System Sciences, $55(1)$:119-139, 1997. [MD89] J. Moody and C. Darken. Fast learning in networks of locally-tuned processing units. Neural Computation, $1(2)$:281-294, 1989. [Mik02] S. Mika. Kernel Fisher Discriminants. PhD thesis, University of Technology, Berlin, Germany, December 2002. [Rät01] G. Rätsch. Robust Boosting via Convex Optimization. PhD thesis, University of Potsdam, Neues Palais 10, 14469 Potsdam, Germany, October 2001. [Tip00] M.E. Tipping. The Relevance Vector Machine. In S.A. Solla, T.K. Leen, and K.-R. Müller, editors, Advances in Neural Information Processing Systems, volume 12, pages 652-658. MIT Press, 2000. [Vap98] V.N. Vapnik. Statistical Learning Theory. Wiley, New York, 1998. Sebastian Mika, geboren 1973, studierte an der Technischen Universität Berlin Informatik und Mathematik. Er hat 1998 sein Diplom in Informatik mit Auszeichnung erhalten. Von 1998 an hat Herr Mika an der Technischen Universität und dem Fraunhofer Institut FIRST gearbeitet. Neben einer Vielzahl wissenschaftlicher Publikationen und mehrere Auslandsaufenthalten, unter anderem bei AT\&T Research, Microsoft Research und der Australian National University, entstand seine Doktorarbeit. Im Dezember 2002 hat Herr Mika seine Promotion mit Auszeichnung an der Technischen Universität abgelegt.
- TextdokumentProgrammierung, Spezifikation und Interaktives Beweisen(Ausgezeichnete Informatikdissertationen 2002, 2003) Stehr, Mark-OliverDiese Dissertation mit dem englischen Titel “Programming, Specification, and Interactive Theorem Proving – Towards a Unified Language based on Equational Logic, Rewriting Logic, and Type Theory” bescha ̈ftigt sich mit dem Problem der Inflation von Formalismen in der Informatik im Kontext eines Spektrums formaler Methoden, das von Ausführung, über Analyse, bis zur formalen Verifikation reicht. Durch ihre Repräsentation in semantischen und logischen Rahmenwerken (semantic and logical frameworks), wie der Gleichungslogik (equational logic), der Termersetzungslogik (rewriting logic), oder der Typtheorie, wird ein Beitrag zum besseren Verständnis der Formalismen sowie ihrer Beziehungen untereinander geliefert. Konkret behandeln wir verschiedene Klassen von Petrinetzen, die UNITY-Temporallogik, das -Kalkül, Abadi und Cardellis -Kalkül, Milners -Kalkül, sowie verschiedene logische Typtheorien. Gleichzeitig studieren wir interessante Verallgemeinerungen der repräsentierten Formalismen und weisen die Praxistauglichkeit des formalen Rahmens durch eine Reihe von Anwendungen nach. In einem weiteren Vereinheitlichungsschritt wird ein neues Rahmenwerk, das Kalkül der offenen Konstruktionen (open calculus of constructions), eingeführt, das die Ideen der Gleichungslogik, der Termersetzungslogik, und der Typtheorie in einer relativ einfachen Sprache zusammenführt. Der Einsatz als Programmier- und Spezifikationssprache, sowie als Formalismus zum interaktiven Beweisen, wird anhand eines Prototyps und zahlreicher Beispiele demonstriert.
- TextdokumentVolume rendering techniques for general purpose graphics hardware(Ausgezeichnete Informatikdissertationen 2002, 2003) Rezk-Salama, ChristofTechniken der Volumenvisualisierung werden zur räumlichen Darstellung dreidimensionaler Skalarfelder ben ötigt, wie sie beispielsweise in der Medizin in Form von tomographischen Schnittbildern entstehen. Die hier in einer Kurzfassung vorliegende Dissertation führt neue Methoden zur interaktiven Darstellung von Volumendaten auf universeller Hardware ein. Diese Methoden nutzen die in handels üblichen Personal Computern (PC) vorhandenen Graphikkarten, die hauptsächlich für Computerspiele und Multimedia-Anwendungen entwickelt wurden. Das Ziel dieser Arbeit ist es, auf solch einer kostengünstigen Plattform eine Lösung zu finden, deren Bildqualität mit traditionellen Ray-Casting Verfahren vergleichbar ist, und die gleichzeitig eine echtzeitfähige Performanz erreicht. In diesem Zusammenhang wurden die Vorund Nachteile traditioneller texturbasierter Ansätze im Hinblick auf Geschwindigkeit und Darstellungsqualität analysiert. Basierend auf dieser Analyse wurden neue effiziente Techniken der Volumenvisualisierung entwickelt, die speziell die M öglichkeiten moderner PC-Graphik-Hardware, wie mehrstufige Rasterisierung, Pixel Shaders, und Dependent Textures, ausnutzen.
- TextdokumentAsymmetrische Evolutionsstrategien(Ausgezeichnete Informatikdissertationen 2002, 2003) Hildebrand, Lars