Logo des Repositoriums
 

D11 (2010) - Ausgezeichnete Informatikdissertationen

Steffen Hölldobler et al. (Hrsg.)

GI-Edition - Lecture Notes in Informatics (LNI), D-11

Bonner Köllen Verlag (2011)

Autor*innen mit den meisten Dokumenten  

Auflistung nach:

Neueste Veröffentlichungen

1 - 10 von 39
  • Textdokument
    Design and Validation of Proteome Measurements
    (Ausgezeichnete Informatikdissertationen 2010, 2011) Claassen, Manfred
    Die Proteomik ist ein Teilbereich der Biologie, der die vollständige Charakterisierung eines Proteoms zum Ziel hat. Massenspektrometrie basierte Proteomik hat sich als erfolgreichste Strategie zum Erreichen dieses Ziels herausgebildet. Diese Arbeit stellt statistische Methoden zur optimalen Planung und Validierung von Shotgun-Proteomik-Experimenten vor. Diese Methoden ermöglichen eine effiziente, zuverlässige und zugleich umfassende Proteomcharakterisierung.
  • Textdokument
    Modellierung und Verifikation von Fähigkeiten rationaler Agenten
    (Ausgezeichnete Informatikdissertationen 2010, 2011) Bulling, Nils
    In dieser Dissertation wird untersucht, wie rationales Verhalten von Agenten modelliert und verifiziert werden kann. Es werden diverse Ansätze durch formale logikorientierte Methoden ausgedrückt und die Komplexität der jeweiligen Modellverifikationsprobleme (model checking problems) bestimmt.
  • Textdokument
    Building Scalable, Distributed Applications with Declarative Messaging
    (Ausgezeichnete Informatikdissertationen 2010, 2011) Böhm, Alexander
    Im Rahmen der Dissertation wird ein neuartiger Ansatz zur Implementierung von verteilten, auf dem Austausch von XML-Nachrichten basierenden Anwendungen vorgestellt. Grundlage hierbei sind ein nachrichtenorientiertes Programmiermodell sowie eine zugehörige, deklarative Regelsprache. Sie ermöglichen die in der Arbeit diskutierten Techniken zur automatischen Optimierung, effizienten Ausführung und automatisierten Verteilung von nachrichtenbasierten Anwendungen.
  • Textdokument
    Quality of Experience von mobilen Multimediaanwendungen
    (Ausgezeichnete Informatikdissertationen 2010, 2011) Buchinger, Shelley
    Der Erfolg von mobilen Multimedia Services hängt von sehr unterschiedlichen Faktoren, wie zum Beispiel der Verfügbarkeit interessanter Inhalte, spezieller Eigenschaften der mobilen Geräte, der User Akzeptanz im Allgemeinen und natürlich von technischen Aspekten ab. Das Ziel dieser Dissertation besteht darin, Strategien für offene Probleme im Bereich mobiler Multimedia Services mit dem Fokus auf die Nutzerperspektive vorzuschlagen. Der hier gewählte Ansatz wird üblicherweise als Quality of Experience (QoE) bezeichnet und bildet die subjektive Erfahrung der Nutzer eines Ende-zu-Ende Systems ab. Auf der technischen Seite des Gebietes, wird zum Beispiel die Reduzierung der Serverbandbreite genauer überlegt und untersucht, da diese meistens den Flaschenhals eines Systems darstellt.
  • Textdokument
    Imitation Learning of Motor Skills for Synthetic Humanoids
    (Ausgezeichnete Informatikdissertationen 2010, 2011) Amor, Heni Ben
    In der hier besprochenen Arbeit werden Verfahren vorgestellt, die eine adaptive Bewegungsgenerierung für synthetische Humanoide ermöglichen. Die Verfahren basieren auf dem Prinzip des Imitationslernens: Bewegungen werden zuerst aufgezeichnet und dann mithilfe einer neuartigen Methode des maschinellen Lernens, dem Probabilistic Low-Dimensional Posture Model, in generative Modelle umgewandelt. Die gelernten Modelle können daraufhin zur Generierung von neuen Bewegungen zur Laufzeit genutzt werden. Die Verfahren werden an verschiedenen virtuellen und robotischen Humanoiden getestet und ausgewertet.
  • Textdokument
    Eine Multivariate Komplexitätsanalyse von Wahlproblemen
    (Ausgezeichnete Informatikdissertationen 2010, 2011) Betzler, Nadja
    Die Dissertation "A Multivariate Complexity Analysis of Voting Problems" befasst sich mit NP-harten Problemen im Kontext von Wahlen. Das Ziel ist mittels Methoden der parametrisierten Algorithmik ein besseres Verständnis der kombinatorischen Schwierigkeit dieser Probleme zu erlangen und dabei relevante Szenarien zu identifizieren, in denen diese "tractable", das heißt effizient lösbar, sind. Die betrachteten Probleme umfassen die Berechnung eines Gewinners sowie die Erstellung einer Konsensrangliste. Desweiteren wird die Frage nach einem Möglichen Gewinner im Falle von unvollständiger Information sowie die Beeinflussung eines Wahlausgangs durch Löschen oder Hinzufügen von Kandidaten untersucht. Der Schwerpunkt liegt auf einer theoretischen Analyse. Für das sogenannte RANK AGGREGATION-Problem werden einige der entwickelten Algorithmen auch experimentell evaluiert.
  • Textdokument
    Maschinelle Lernmethoden zur Analyse von Tiling-Array-Daten
    (Ausgezeichnete Informatikdissertationen 2010, 2011) Zeller, Georg
    Im Rahmen meiner Dissertation [Zel10] entwickelte ich auf Maschinellen Lerntechniken basierende, bioinformatische Methoden, um zur Beantwortung zentraler molekularbiologischer Fragestellungen beizutragen: In welchen Bereichen des Genoms unterscheiden sich einzelne Individuen derselben Spezies?; Welche Bereiche des Genoms beinhalten Gene, und in welchen Zellen, Organen und Entwicklungsstadien werden diese in mRNA-Moleküle transkribiert? Diese beiden Probleme weisen einige – vielleicht unerwartete – Gemeinsamkeiten auf: Erstens lassen sich beide als Segmentierungsprobleme formalisieren. Zweitens hat die Molekularbiologie eine sehr flexible Hochdurchsatz-Experimentiertechnik entwickelt, sogenannte Tiling-Arrays (bzw. deren Weiterentwicklung zu Resequencing-Arrays), die es ermöglich, diese beiden (und weitere) Fragestellungen experimentell zubearbeiten. Im wesentlichen liefert diese Technik eine Sequenz von Messwerten, die in einem regelmäßigen Raster das gesamte Genom abdecken. Das Segmentierungsproblem bei der Analyse dieser Sequenzdaten besteht nun darin, die Teilbereiche zu erkennen, welche dem gesuchten biologischen Phänomen entsprechen, nämlich einerseits variable Genomregionen (im Unterschied zu solchen, wo sich Individuen nicht unterscheiden) und andererseits Segmente, aus denen mRNA-Moleküle generiert werden. Zur Lösung dieser Probleme entwickelte ich Segmentierungsmethoden, die auf der sogenannten Hidden Markov Support Vector Machine (HMSVM) basieren und sich durch folgende Eigenschaften auszeichnen: Genauigkeit der Vorhersagen war von entscheidender Bedeutung, da meine Resultate die Grundlage für weitergehende experimentelle Forschung bildeten. Wo vergleichbare Methoden verfügbar waren, konnte ich die stark verbesserte Genauigkeit der neu entwickelten Lernmethoden belegen.; Ich untersuchte empirisch, dass die hohe Genauigkeit teils einem ausgefeilten Modellierungsansatz und teils einem neuen diskriminativen Lernalgorithmus mit großer Robustheit gegen Rauschen zugeschrieben werden kann. Angesichts des starken Rauschens in Tiling-Array-Daten erwies sich Robustheit als Schlüsseleigenschaft.; Ein weiterer Schwerpunkt lag auf der Effizienz der Methoden. Analysen ganzer Genome erfordern schnelle Vorhersagealgorithmen, und angesichts langer Trainingssequenzen sind Lernmethoden im Vorteil, die bereits anhand weniger Trainingsbeispiele in der Lage sind, genaue Vorhersagen zu machen.; Die Verwandschaft zu Hidden Markov Modellen (HMMs) mit einem breiten Anwendungsspektrum in der Bioinformatik eröffnet für die Anwendung der HM- SVM viele Möglichkeiten über die hier beschriebenen hinaus.
  • Textdokument
    Dienstplatzierung in Ad-hoc-Netzen
    (Ausgezeichnete Informatikdissertationen 2010, 2011) Wittenburg, Georg
    Weit verbreiteten Diensten wie dem World Wide Web (WWW) oder E-Mail liegt die Client/Server-Architektur zugrunde. Diese ist jedoch nur eingeschränkt auf drahtlose Ad-hoc-Netze übertragbar. In der aktuellen Forschung werden daher Alternativen untersucht, die die Diensterbringung intelligent auf einer Mehrzahl von am Ad-hoc-Netz teilnehmenden Geräten verteilen. Das in dieser Arbeit vorgestellte System SPi ermöglicht erstmalig den experimentellen Vergleich von unterschiedlichen Ansätzen zur verteilten Diensterbringung. Die experimentelle Untersuchung von SPi und dem ebenfalls vorgestellten Graph Cost / Multiple Instances Dienstplatzierungsalgorithmus zeigt, dass die verteilte Diensterbringung als neuartige Architektur die Skalierbarkeit von Diensten in Ad-hoc-Netzen entscheidend verbessert.
  • Textdokument
    Zur Erkennung verformbarer Objekte anhand ihrer Teile
    (Ausgezeichnete Informatikdissertationen 2010, 2011) Stommel, Martin
    Aufgrund der Vielzahl möglicher visueller Erscheinungen lassen sich verformbare Objekte mit den Mitteln der digitalen Bildverarbeitung nur schwer zuverlässig erkennen. Zur Lösung dieses Problems wird in dieser Arbeit ein kompositioneller Ansatz untersucht, bei dem ein Objekt als Hierarchie von Teilen und Unterteilen in geometrischen Beziehungen beschrieben wird. Für jedes Teil läßt sich die Behandlung der Ausprägung und der Position lokaler Merkmale gezielt parametrisieren, was eine hohe Flexibilität ergibt. Die Parametrisierung des Modells beruht auf Beobachtungen der Statistik von Merkmalsverbünden, ihren geometrischen Eigenschaften und Abhängigkeiten von der Hierarchieebene. Die Methode ist ferner durch die Modellierung mehrerer Objektansichten und die gleichzeitige Lokalisation und Klassifikation gekennzeichnet. Die Leistungsfähigkeit des Verfahrens wird am Beispiel einer Cartoon-Datenbank gezeigt. Dazu werden unterschiedliche Modellkonfigurationen vorgestellt, die bei einer Korrektklassifikationsrate von mindestens 78 Prozent entweder einen positiven Vorhersagewert von 97 Prozent oder eine Sensitivität von 93 Prozent erreichen.
  • Textdokument
    Effiziente Fehlertoleranz für Web-Basierte Systeme
    (Ausgezeichnete Informatikdissertationen 2010, 2011) Serafini, Marco
    Web-Basierte Systeme, die aus einer großen Anzahl von kostengünstigen und unzuverlässigen Rechnern bestehen, werden zunehmend für Dienste benutzt, deren Verfügbarkeit für wirtschaftliche oder persönliche Zwecke kritisch ist. Wir widmen uns in dieser Arbeit der Entwicklung von neuen, effizienten Replikationsalgorithmen für Web-Basierte Systeme, die zwei wichtige Klassen von Fehlern tolerieren. Die erste Klasse fasst Worstcase-Fehler um, die, wie Beispiele aus der nahen Vergangenheit zeigen, bereits den Ausfall wichtiger Online-Dienste verursacht haben. Wir stellen neue Algorithmen vor, die solche Fehler mit niedrigen Replikationskosten und hoher Effizienz tolerieren. Die zweite Klasse bestehet aus Netzwerkpartitionen. Viele Web-Basierte Systeme bieten gemäß dem bekannten CAP-Prinzip nur schwache Konsistenz an um Verfügbarkeit in Gegenwart von diesen Fehlern zu gewärleisten. Das erschwert die Entwiklung zuverlässiger Anwendungen. Wir definieren und implementieren ein neues Konsistenzmodell, genannt Eventual Linearizability, welches es ermöglicht Verfügbarkeit zu garantieren ohne die Konsistenz unnötig zu schwächen.