D03 (2002) - Ausgezeichnete Informatikdissertationen
Dorothea Wagner et al. (Hrsg.)
(in deutsch)
GI-Edition - Lecture Notes in Informatics (LNI), D-3
Bonner Köllen Verlag (2003)
ISBN 3-88579-407-1
Auflistung D03 (2002) - Ausgezeichnete Informatikdissertationen nach Titel
1 - 10 von 20
Treffer pro Seite
Sortieroptionen
- TextdokumentAlgorithmen und Datenstrukturen für ein auf GUIDO Music Notation basierendes Notensatzsystem(Ausgezeichnete Informatikdissertationen 2002, 2003) Renz, KaiDie vorliegende Dissertation behandelt die Fragestellung, inwieweit die kürzlich entwickelte text-basierte Musikrepräsentationssprache GUIDO Music Nota- ” tion“ automatisch in traditionellen Notensatz umgewandelt werden kann, bzw. welche Algorithmen und Datenstrukturen für eine vollständig automatische Umwandlung notwendig sind. Da GUIDO nicht von vorneherein auf den Notensatz beschränkt ist, sondern vielmehr einen generellen Musikrepräsentationsformalismus darstellt, ist die Umwandlung von beliebigen GUIDO-Beschreibungen in konventionellen Notensatz im Allgemeinen keine leichte Aufgabe. Zunächst wird die dreigeteilte Struktur von GUIDO erläutert und andere Musikrepräsentationssprachen mit GUIDO verglichen. Anschließend wird gezeigt, wie GUIDO Beschreibungen in eine geeignete Datenstruktur umgewandelt werden können und wie Algorithmen für den Notensatz auf dieser Datenstruktur operieren. Die Algorithmen für den automatischen Zeilenausgleich sowie den Zeilenund Seitenumbruch bilden einen Schwerpunkt der vorliegenden Arbeit. Der bisher bekannte Zeilenausgleichsalgorithmus wurde so verbessert, dass auch komplexe Rhythmen optisch korrekt dargestellt werden. Zusätzlich wurde ein Algorithmus für einen automatischen Seitenausgleich neu entwickelt, der hier erstmals vorgestellt wird. Die beschriebenen Algorithmen und Datenstrukturen bilden die Grundlage für verschiedene, im Rahmen dieser Dissertation entwickelte, Notensatzanwendungen. Dazu zählt auch ein kostenloser Internet-Service, der völlig plattformunabhängig GUIDO- Beschreibungen in konventionellen Notensatz umwandelt.
- TextdokumentArchitektur und Entwurfsfluss zur Unterstützung der Anwendungsparallelität durch rekonfigurierbare Rechnersysteme(Ausgezeichnete Informatikdissertationen 2002, 2003) Sawitzki, SergeiSeit den Anfängen des rekonfigurierbaren Rechnens war die Vereinbarung von Prinzipien der parallelen und rekonfigurierbaren Verarbeitung ein wichtiger Forschungsschwerpunkt. Es blieb jedoch fraglich, ob es möglich ist, ein Ent- wurfsraummodell, eine universelle Architekturvorlage und eine Werkzeugumgebung zur Unterstützung von sowohl Befehls- als auch Datenparallelität auf verschiedenen Granularitätsstufen zu vereinigen. Diese Arbeit stellt die ReSArT Architekturvorlage sowie die DEfInE Entwurfsumgebung vor, womit diese Frage positiv beantwortet wird. Um die Machbarkeit und Lebendigkeit des Konzeptes zu beweisen, wurden ver- schiedene mit ReSArT und DEfInE erzeugte Architekturinstanzen mit einem Satz von 10 Benchmarks getestet und zeigten für eine prototypische Implementierung bereits vielversprechende Resultate.
- TextdokumentAspektorientierung und Programmfamilien im Betriebssystembau(Ausgezeichnete Informatikdissertationen 2002, 2003) Spinczyk, OlafIn der hier zusammengefassten Dissertation geht es um die Analyse, den Entwurf und die Implementierung von maßgeschneiderter Systemsoftware, wie sie beispielsweise im Bereich kleinster eingebetteter Systeme benötigt wird, um Hardware-Anforderungen zu reduzieren und damit Kosten zu sparen. Dabei wurde der Gedanke der Betriebssystemfamilie aufgegriffen und mit dem modernen Ansatz der aspektorientierten Programmierung (AOP) kombiniert. Die so entstandenen Methoden, Werkzeuge und Fallstudien zeigen neue Perspektiven für diese Klasse von Betriebssystemen auf und lassen sich auch auf andere Bereiche sinnvoll übertragen. Die vollständige Fassung der Arbeit ist elektronisch über die Universitätbibliothek Magdeburg (http://diglib.uni-magdeburg.de/) verfügbar .
- TextdokumentAsymmetrische Evolutionsstrategien(Ausgezeichnete Informatikdissertationen 2002, 2003) Hildebrand, Lars
- TextdokumentDie Ausdrucksstärke der Logik erster Stufe mit eingebauten Prädikaten(Ausgezeichnete Informatikdissertationen 2002, 2003) Scheikardt, NicoleDiese Arbeit ist in der Theoretischen Informatik positioniert, und zwar in den Fachgebieten Komplexitätstheorie, mathematische Logik und Datenbanktheorie. Die Arbeit beschäftigt sich mit der Ausdrucksstärke der Logik erster Stufe auf Strukturen mit eingebauten Prädikaten wie z.B. lineare Ordnung, Addition und Multiplikation. Die Hauptergebnisse lassen sich den drei Teilbereichen Arithmetik und ”Zählquantoren“, die Crane Beach-Vermutung“ und Kollaps-Resultate in der Datenbanktheorie“ zuordnen. Ziel des hier vorliegenden Artikels ist, einen Einblick in die Fragestellungen und Ergebnisse zu diesen drei Themenkreisen zu geben.
- TextdokumentDensity-based clustering in large databases using projections and visualizations(Ausgezeichnete Informatikdissertationen 2002, 2003) Hinneburg, AlexanderEs wurde ein Rahmensystem für Clusteranalyse entwickelt, daß Cluster-Primitive für verschiedene Aufgabenstellungen bereit hält. Alle Cluster-Primitive basieren auf Dichteschätzung, die von der eigentlichen Clusteranalyse getrennt wurde. Diese Trennung führte zu Algorithmen mit besser Laufzeitkomplexität. Um hoch-dimensionale Daten zu bearbeiten wurde ein neuer Algorithmus vorgeschlagen, der Cluster in verschiedenen Projektionen Abbildung 2: HD-Eye Screenshot Version 1 and Version 2, Erklärung der Teilfenster in der oberen Abbildung im Uhrzeigersinn von Oben: Separator Baum, Icon Repräsentation von 1D Projektionen, 1D Projektion-Histogramm, 1D Dichte Diagramm, Icon Repräsentation für multi dimensionale Projektionen and 2D Dichte Diagramme. Density-Based Clustering in Large Databases (a) Color (b) Histogramm Abbildung 3: Beispiel für ein-dimensionale Color-Density Plots Abbildung 4: Beispiel für einen zwei-dimensionalen Color-Density Plot (a) 1 dimensional (b) multidimensional Abbildung 5: Struktur der Icons (a) ein-dimensional (b) mehr-dimensional Abbildung 6: Beispiele für Icons passend zu den vorhergehenden Color-Density Plot in Abb.3 und 4 (a) (b) (c) (d) Abbildung 7: (a) zeigt Color-Density Plots von molekular-biologischen Daten mit den separarierenden Minima für die Rauschschwelle $ξ= 0$. Aufgrund der Visulisierungen erhöht der Anwender die Rauschschwelle auf 2\%. $Teil(b)$ zeigt die veränderten Density-Plots, wobei die Intervalle mit einer Dichte unterhalb der Rauschschwelle gelb gezeichnet sind. Mit Hilfe der Rauschschwelle werden Trennpunkte entfernt, die durch leichte Schwankungen in der Datenverteilung verursacht werden. Die Teile (c,d) zeigen wie eine größere Menge von Repräsentanten die Approximationsqualität der Cluster verbessert. In dem Beispiel werden in den Daten des US Census Büros die dichten geclusterten Gebiete der Westund Ostküste getrennt. Density-Based Clustering in Large Databases des hoch-dimensionalen Datenraumes finden kann. Der neue Algorithmus kann Cluster finden, die von anderen bekannten Verfahren nicht gefunden werden. Zum Abschluß wurde das HD-Eye-System entwickelt, das automatische Verfahren mit Visualisierungstechniken verknüpft, um dem Nutzer eine bessere Grundlage für seine Entscheidungen zu liefern und um das Verständnis und die Einschätzung der Ergebnisse zu erleichtern. In zukünftigen Arbeiten kann der Algorithmus um das Finden von Clustern mit abhängigen Attributen erweitert werden. In diesem Rahmen gibt es auch Potential zur Entwicklung neuer Visualisierungstechniken. Ebenso können Verfahren für nominale Daten (im Gegensatz zu den hier genutzten nummerischen Daten) untersucht werden. Literatur [AGGR98] Agrawal, R., Gehrke, J., Gunopulos, D., und Raghavan, P.: Automatic subspace clustering of high dimensional data for data mining applications. In: SIGMOD 1998, Proceedings ACM SIGMOD International Conference on Management of Data, 1998, Seattle, Washington, USA. S. 94-105. ACM Press. 1998. [HAK00] Hinneburg, A., Aggarwal, C. C., und Keim, D. A.: What is the nearest neighbor in high dimensional spaces? In: VLDB'2000, Proceedings of 26th International Conference on Very Large Data Bases, Cairo, Egypt. S. 506-515. Morgan Kaufmann. 2000. [HK98] Hinneburg, A. und Keim, D.: An efficient approach to clustering in large multimedia databases with noise. In: KDD'98, Proc. of the 4th Int. Conf. on Knowledge Discovery and Data Mining. S. 58-65. AAAI Press. 1998. [HK99] Hinneburg, A. und Keim, D. A.: Optimal grid-clustering: Towards breaking the curse of dimensionality in high-dimensional clustering. In: VLDB'99, Proceedings of 25th International Conference on Very Large Data Bases, September 7-10, 1999, Edinburgh, Scotland, UK. S. 506-517. Morgan Kaufmann. 1999. [HKW02] Hinneburg, A., Keim, D. A., und Wawryniuk, M.: Hdeye: Visual mining of highdimensional data (demo). In: SIGMOD 2002, Proceedings ACM SIGMOD International Conference on Management of Data, June 3-6, 2002, USA. ACM Press. 2002. [HKW03a] Hinneburg, A., Keim, D. A., und Wawryniuk, M.: Using projections to visually cluster high-dimensional data. IEEE Computing in Science \& Engineering. $5(2)$:14-25. 2003. [HKW03b] Hinneburg, A., Keim, D. A., und Wawryniuk, M.: Hdeye: Visual mining of highdimensional data (demo). In: ICDE 2003, Proceedings of the 19th International Conference on Data Engineering, ICDE, India. IEEE Press. 2003. [HWK99] Hinneburg, A., Wawryniuk, M., und Keim, D. A.: Hdeye: Visual mining of highdimensional data. Computer Graphics \& Applications Journal. $19(5)$:22-31. September/October 1999. [Sc92] Scott, D.: Multivariate Density Estimation. Wiley and Sons. 1992. [Si86] Silverman, B. W.: Density Estimation for Statistics and Data Analysis. Chapman \& Hall. 1986.
- TextdokumentFrontmatter(Ausgezeichnete Informatikdissertationen 2002, 2003)
- TextdokumentKern Fisher Diskriminanten(Ausgezeichnete Informatikdissertationen 2002, 2003) Mika, SebastianIn der dieser Kurzfassung zugrundeliegenden Doktorarbeit wurden Lernmethoden die auf der Maximierung eines Rayleigh Koeffizienten beruhen untersucht. Es wurden nichtlineare Verallgemeinerungen von verschiedenen Methoden vorgeschlagen, unter anderem orientierter Hauptkomponentenanalyse und insbesondere Fishers Diskriminanten. Zentraler Aspekt der Arbeit ist die Anwendung des “Kerntricks” auf Rayleigh Koeffizienten bei gleichzeitiger Berücksichtigung der Komplexitätskontrolle im Rahmen der strukturellen Risikominimierung. Es wurde gezeigt, wie auf diesem Wege neue, machtvolle Algorithmen hergeleitet werden können deren Leistung dem heutigen Stand der Technik entspricht. In einem weiteren Teil wurde gezeigt, dass KFD als ein mathematisches (quadratisches) Optimierungsproblem formuliert werden kann. Aufbauend auf dieser Einsicht wird diskutiert und aufgezeigt, wie mathematische Optimierung als ein allgemeines Rahmenwerk für die Analyse von Lernverfahren dienen kann. Außerdem erlaubt diese Betrachtung die Herleitung mehrerer interessanter und nützlicher Varianten von KFD: robuste KFD, sparse KFD und lineare, sparse KFD. Schließlich wird diskutiert wie die den Lernproblemen zu Grunde liegenden Optimierungsprobleme effizient gelöst werden können. Um die Leistungsfähigkeit der vorgeschlagenen Algorithmen zu illustrieren und sie mit anderen Techniken zu vergleichen wird eine große Anzahl von experimentellen Resultaten Kern Fisher Diskriminanten präsentiert. Dabei werden sowohl künstliche als auch reale Daten verwandt. Zusammenfassend lässt sich sagen, das gezeigt wurde, dass Fishers Diskriminanten durch Nutzung von Kernen zu den besten heute verfügbaren Lernmethoden zählen. Ihre intuitive Interpretation, die Eigenschaft, dass Resultate erzeugt werden welche sich als Wahrscheinlichkeiten interpretieren lassen und ihre einfach Umsetzung machen sie für viele Anwendungen interessant. Andererseits wurde auch gezeigt, dass die meisten modernen Lernmethoden, abgesehen davon, dass sie sehr ähnliche Optimierungsprobleme lösen, kaum Unterscheide in ihrer Leitung zeigen. Es wäre sicher falsch aus dieser Arbeit den Schluss zu ziehen, dass KFD besser ist als andere Techniken. Aber KFD ist sicher genauso gut wie andere existierende Methoden. Und wie mit jeder Technik gibt es bestimmte Anwendungen wo KFD besonders geeignet ist. Literatur [Fis36] R.A. Fisher. The use of multiple measurements in taxonomic problems. Annals of Eugenics, 7:179-188, 1936. [FS97] Y. Freund and R.E. Schapire. A Decision-theoretic Generalization of On-line Learning and an Application to Boosting. Journal of Computer and System Sciences, $55(1)$:119-139, 1997. [MD89] J. Moody and C. Darken. Fast learning in networks of locally-tuned processing units. Neural Computation, $1(2)$:281-294, 1989. [Mik02] S. Mika. Kernel Fisher Discriminants. PhD thesis, University of Technology, Berlin, Germany, December 2002. [Rät01] G. Rätsch. Robust Boosting via Convex Optimization. PhD thesis, University of Potsdam, Neues Palais 10, 14469 Potsdam, Germany, October 2001. [Tip00] M.E. Tipping. The Relevance Vector Machine. In S.A. Solla, T.K. Leen, and K.-R. Müller, editors, Advances in Neural Information Processing Systems, volume 12, pages 652-658. MIT Press, 2000. [Vap98] V.N. Vapnik. Statistical Learning Theory. Wiley, New York, 1998. Sebastian Mika, geboren 1973, studierte an der Technischen Universität Berlin Informatik und Mathematik. Er hat 1998 sein Diplom in Informatik mit Auszeichnung erhalten. Von 1998 an hat Herr Mika an der Technischen Universität und dem Fraunhofer Institut FIRST gearbeitet. Neben einer Vielzahl wissenschaftlicher Publikationen und mehrere Auslandsaufenthalten, unter anderem bei AT\&T Research, Microsoft Research und der Australian National University, entstand seine Doktorarbeit. Im Dezember 2002 hat Herr Mika seine Promotion mit Auszeichnung an der Technischen Universität abgelegt.
- TextdokumentLaufzeitunterstützung für mobilen Code(Ausgezeichnete Informatikdissertationen 2002, 2003) Peine, HolgerMobiler Code ist ein Modell der Rechnerkommunikation, bei dem nicht durch den Austausch von Nachrichten interagiert wird, sondern der gesamte Interaktionscode zum Partner-Rechner geschickt und dort lokal ausgeführt wird. Das verspricht dynamischere und weniger vom Netzwerk abhängige Anwendungen. Mobile Agenten sind Prozesse aus mobilem Code, die sich selbstständig durch das Netzwerk bewegen. In dieser Arbeit wurden die abstrakten Eigenschaften, die Anwendungsmöglichkeiten und die benötigte Laufzeitunterstützung für mobilen Code und mobile Agenten untersucht und ein solches Laufzeitsystem, genannt Ara, entwickelt. Ara zeichnet sich dadurch aus, dass verschiedene Programmiersprachen zur Anwendungsentwicklung an einen gemeinsamen, sprachunabhängigen und effizienten Systemkern angeschlossen werden können, und dass die Agenten jederzeit unter voller Erhaltung ihres internen Zustands ihren Rechner wechseln und weiterlaufen können. Eine Anwendung von Ara zur Suche in einem verteilten Datenbestand wird beschrieben, bei der mobile Agenten messbare Geschwindigkeitsvorteile gegenüber herkömmlichen Methoden erzielen. Allerdings scheint es nur wenige Anwendungen zu geben, die den spezifischen Mehraufwand für mobile Agenten gegenüber mobilem Code rechtfertigen, weshalb diese Arbeit vor allem für mobilen Code, weniger aber für mobile Agenten interessante Zukunftsaussichten sieht.
- TextdokumentMerkmalhistogramme für die Suche in Bilddatenbanken(Ausgezeichnete Informatikdissertationen 2002, 2003) Siggelkow, SvenInvariante Merkmale bleiben unverändert, wenn die Daten mit einer vorgegebenen Transformationklasse verändern. Diese Eigenschaft kann in Anwendungen von Vorteil sein, bei denen die Orientierung oder absolute Position von Objekten irrelevant sind, z.B. bei der Suche nach ähnlichen Bildern. Wir verwenden hier Merkmale, welche sich durch Integration über die Transformationsgruppe der Euklidischen Bewe- gungen bilden lassen. Deren Berechnungskomplexität ist aber zu hoch, zumal es sich um der angestrebten Applikation um Bilddaten oder gar Volumendaten handelt. Anstatt die Merkmale vollständig zu berechnen, wird daher eine Monte-Carlo Schätzung des Integrals durchgeführt, so daß eine konstante Komplexita ̈t erreicht werden kann, ohne daß das Merkmal zu stark von der urspru ̈nglichen Berechnung abweichen würde. Um die Aussagekraft der Merkmale zu erhöhen werden mehrdimensionale Merkmalhistogramme statt der ursprünglichen Merkmale konstruiert. Durch eine gewichtete Zuweisung der Werte zu den Histogrammcontainern wird zudem die Unstetigkeit der Histogrammfunktion beseitigt. Schließlich werden die Methoden anhand von zwei Applikationen demonstriert: einem System zur allgemeinen Bildsuche, sowie einem Programm zur automatischen Suche von Briefmarken anhand von eingescannten Vorlagen.