Auflistung D22 (2021) - Ausgezeichnete Informatikdissertationen nach Titel
1 - 10 von 32
Treffer pro Seite
Sortieroptionen
- KonferenzbeitragArbeitsbelastung beim Software Prototyping(D22, 2022) Suleri, Sarahrototyping ist ein iteratives Verfahren zur Ideenfindung, Kommunikation und Bewertung von Benutzeroberflächendesigns. Diese Forschung zielt darauf ab, diesen Prozess unter drei Aspekten zu analysieren: traditionelles Prototyping, Rapid Prototyping und Prototyping für Barrierefreiheit. Wir schlagen drei neue Ansätze vor und setzen sie durch die Einführung von drei Artefakten um: 1) Eve, eine skizzenbasierte Prototyping-Workbench, die die automatisierte Umwandlung von Low-Fidelity-Prototypen in höhere Fidelitys unterstützt, 2) Kiwi, eine UI-Design-Pattern- und Richtlinien-Bibliothek zur Unterstützung von UI-Design-Pattern-getriebenem Prototyping, 3)Personify, eine Persona-basierte UI-Design-Richtlinien-Bibliothek für barrierefreies UI-Prototyping. Empirische Untersuchungen mittels NASA-TLX zeigen massive Zeiteinsparungen und deutlich reduzierte subjektive Arbeitsbelastung durch die vorgestellten Unterstützungstools.
- Konferenzbeitrag
- KonferenzbeitragBerechnung effizienter Datenzusammenfassungen(D22, 2022) Mair, SebastianDas Extrahieren sinnvoller Repräsentationen von Daten ist ein grundlegendes Problem im maschinellen Lernen und kann aus zwei unterschiedlichen Perspektiven betrachtet werden: (i) im Bezug auf die Anzahl der Datenpunkte und (ii) hinsichtlich der Repräsentation eines jeden einzelnen Datenpunktes in Bezug auf seine Dimensionen. Diese Arbeit beschäftigt sich mit diesen Perspektiven zur Datenrepräsen- tation und leistet dazu verschiedene Beiträge. Der erste Teil behandelt die Berechnung repräsentativer Teilmengen für die Archetypenanalyse und die Problemstellung der optimalen Versuchsplanung. Dafür motivieren und untersuchen wir die Brauchbarkeit der Punkte am Rand der Daten als neuartige repräsentative Teilmenge. Basierend auf dem Coreset-Prinzip leiten wir eine weitere repräsentative Teilmenge für die Archetypenanalyse her, welche zusätzliche theoretische Garantien bietet. Der zweite Teil der Arbeit handelt von effizienten Datenrepräsentationen für Dichteschätzungsprobleme. Wir analysieren raum-zeitliche Probleme, die z.B. in der Analyse von Mannschaftssportarten auftreten, und zeigen, wie sich statistische Bewegungsmodelle anhand von Trajektoriendaten lernen lassen. Darüber hinaus untersuchen wir Probleme hinsichtlich der Interpolation von Daten mittels generativer Modelle.
- KonferenzbeitragDie Bewertung der Anwendbarkeit von VR für Datenvisualisierung(D22, 2022) Kraus, MatthiasDatenvisualisierung ist ein mächtiges Werkzeug, um effizient und effektiv Wissen aus Daten zu extrahieren. Für jede Kombinationaus Daten und Analyseziel gibt es unterschiedliche Visualisierungstechniken, die für das jeweilige Kombination optimal sind. Doch nicht nur die Visualisierung kann die Analyse beeinflussen, sondern auch die Art und Weise, wie die Visualisierung betrachtet wird. Es macht einen großen Unterschied, ob die Daten auf den kleinen Smartphone Displays, auf Standard-Bildschirmen, oder - was eine neuere Entwicklung ist - in so genannten immersiven Umgebungen analysiert werden. In immersiven Umgebungen wird die reale Umgebung durch virtuelle Elemente erweitert oder ersetzt, was einen hohen Freiheitsgrad bei der Gestaltung von Analyseumgebungen, Visualisierungen und Interaktionskonzepten ermöglicht. Immersive Analytics umfasst Analyseverfahren, die sich solcher immersiven und ansprechenderen Medien bedienen. Eines der größten Probleme in Immersive Analytics ist derzeit, dass der Mehrwert immersiver Geräte z.B. im Vergleich zu herkömmlichen Bildschirmen nicht klar definiert ist. Es gibt kein allgmeines Regelwerk, um beispielsweise zu bestimmen, wann es sinnvoll ist, virtuelle Realität (VR) zu nutzen. Das liegt daran, dass die Technologie relativ neu ist und sich ständig weiterentwickelt. Eine regelmäßig wiederkehrende Herausforderung besteht daher darin, solche immersiven Umgebungen fÜR Datenvisualisierung zu bewerten und die Frage zu beantworten, ob und wie der Einsatz von Virtual Reality für eine bestimmte Kombination von Daten, Aufgabe und Visualisierung sinnvoll ist.
- KonferenzbeitragBilderkennung und Wissenstransfer in verteilten Systemen(D22, 2022) Roschke, ChristianTechnologischer Fortschritt im Bereich multimedialer Sensorik und zugeho ̈rigen Methoden zur Datenaufzeichnung, Datenhaltung und -verarbeitung führt im Big Data-Umfeld zu immensen Datenbeständen in Mediatheken und Wissensmanagementsystemen. Dabei Zugrundliegende State of the Art-Verarbeitungsalgorithmen werden oftmals problemorientiert entwickelt, wobei sich aufgrund der enormen Datenmengen nur bedingt zuverlässig Rückschlüsse auf Güte und An- wendbarkeit ziehen lassen. So gestaltet sich auch die intellektuelle Erschließung von großen Korpora schwierig, da die Datenmenge für valide Aussagen nahezu vollumfänglich semi-intellektuell zu prüfen wäre, was spezifisches Fachwissen aus der zugrundeliegenden Datendomäne ebenso voraussetzt wie zugehöriges Verständnis für Datenhandling und Klassifikationsprozesse. Ferner gehen damit gesonderte Anforderungen an Hard- und Software einher, welche in der Regel suboptimal skalieren, da diese zumeist auf Multi-Kern-Rechnern entwickelt und ausgeführt werden, ohne dabei eine notwendige Verteilung vorzusehen. Folglich fehlen Mechanismen, um die Übertragbarkeit der Verfahren auf andere Anwendungsdoma ̈nen zu gewährleisten. Die Arbeit [Ro21] nimmt sich diesen Herausforderungen an und fokussiert auf die Konzeptionierung und Entwicklung einer verteilten holistischen Infrastruktur, die die automatisierte Verarbeitung multimedialer Daten im Sinne der Merkmalsextraktion, Datenfusion und Metadatensuche innerhalb eines homogenen Systems ermöglicht.
- KonferenzbeitragDrohnennetzwerke zur Suche und Rettung(D22, 2022) Hayat, SamiraDiese Arbeit befasst sich mit dem komplexen Problem des Entwurfs von Drohnennetzwer- ken. Drohnenanwendungen sind sehr vielfältig und können mit traditionellen Netzwerkdesignmethoden nicht erfolgreich bewältigt werden. Alternativ schlagen wir vor, die grundlegenden Fragen für Droh- nennetzwerkanwendungen zu beantworten: Welche Daten müssen übertragen werden? Wie werden die Daten von Punkt A zu Punkt B im Netzwerk übertragen? Wann (zu welchen Zeitpunkten) müssen die Daten übertragen werden? Wir stellen fest, dass Kommunikation in einem Drohnennetzwerk sowohl dem Missionsziel (für die Übertragung von Sensordaten) als auch der Missionsdurchführung (Missionskoordination) dient, weshalb wir eine abstimmbare und modulare Systemarchitektur vorschlagen. Abhängig von den Missionsanforderungen können verschiedene Kommunikations- und Koordinationsmodule hinzugefügt werden, ohne dass das gesamte System geändert werden muss. Die Systemarchitektur wird für einen Such- und Rettungseinsatz implementiert, wobei bestehende Kommunikationstechnologien im Experiment getestet und neuartige Koordinationsalgorithmen vorgeschlagen werden.
- KonferenzbeitragEntwicklungsgeschichte von Genfamilien - Theorie und Algorithmen(D22, 2022) Schaller, DavidDas Verständnis der Beziehungen zwischen Genetik und evolutionären Innovationen erfordert die Rekonstruktion der Verwandtschaftsverhältnisse innerhalb von Genfamilien. Dafür werden oft graphentheoretische Methoden eingesetzt. Die Knoten und Kanten der Graphen repräsentieren dabei verwandte Gene bzw. messbare Daten wie die (Un-)Ähnlichkeit der Gensequenzen. Best- Match-Graphen enthalten gerichtete Kanten von jedem Gen zu dessen nächsten Verwandten und sind zentral in der Erkennung von Orthologen (≈ funktional äquivalente Gene der verschiedenen Spezies). Later-Divergence-Time-Graphen werden als erstes formales Modell s.g. impliziter Methoden der Inferenz horizontalen Gentransfers (HGT) präsentiert. Beide Graphenklassen werden charakterisiert. Ihr bisher in der Praxis ungenutztes Potenzial zur Rekonstruktion evolutionärer Szenarien wird algorithmisch zugänglich gemacht und durch Simulationen belegt. Damit liefert diese Arbeit die theoretischen Grundlagen für eine verbesserte automatisierte Erkennung von Orthologen und HGT.
- KonferenzbeitragErkennung von Anomalien und Veränderung in Graphsequenzen(D22, 2022) Zambon, DanieleWir verzeichnen einen erheblichen Zuwachs an Daten, die von Sensornetzen und sozialen Netzwerken gesammelt werden, verursacht durch technologische Entwicklungen und die Verbreitung sozialer Plattformen. Die Auswertung dieser riesigen Datenströme ist eine wichtige Aufgabe für die Wissenschaft ebenso wie für die Industrie. Da Datenströme von Sensoren (sei es physischen oder virtuellen) in der Regel funktionale Abhängigkeiten aufweisen, erweisen sich Graphen als reichhaltige Strukturen, die in der Lage sind, sowohl Informationen auf der Ebene der Sensoren/Entitäten als auch die komplexen Beziehungen zwischen den Entitäten zu modellieren. Diese graphbasierte Repräsentation wiederum ermöglicht uns, mittels Graph Neural Networks und Geometric Deep Learning, Inferenzen in Bezug auf Graphsequenzen anzustellen. Im Allgemeinen gehen solche Verarbeitungsverfahren allerdings von der Hypothese der Stationarität aus, die nicht immer gegeben ist, z.B. wenn eine Alterung der Sensoren, eine zeitliche Varianz oder eine Veränderungen in den Präferenzen der Nutzer auf sozialen Plattformen vorliegt. In dieser Dissertation befassen wir uns mit dem Problem der Identifizierung von Veränderungen der Stationarität, die durch unbekannte Phänomene im zugrundeliegenden Datenerzeu- gungsprozess verursacht werden und sich in der Sequenz der Graphen zeigen. Die wissenschaftlichen Ergebnisse erlauben es uns, auch das Problem der Erkennung von Anomalien zu behandeln, das in der Tat eine wertvolle Fortsetzung der Forschung darstellt. Wir betrachten eine allgemeine Familie von mit Attributen versehenen Graphen mit nicht-identifizierten Knoten, um ein möglichst breites Spektrum von Anwendungen abzudecken. Der Hauptbeitrag dieser Arbeit besteht in einer Methodik zur Verarbeitung einer Sequenz von Graphen, um unerwartete Ereignisse (Änderungen der Stationaritäten und/oder Auftreten von Anomalien) im Datenerzeugungsprozess zu erkennen. Die Methodik beruht auf der Entwicklung neuartiger Embeddings auf Graphenebene und Methoden zur Erkennung von Veränderungen, die durch ein solides theoretischen Grundgerüst unterstützt werden.
- KonferenzbeitragGenerative Modelle für pathologische Bilddaten(D22, 2022) Uzunova, HristinaDeep-learning-basierte Algorithmen haben sich im Bereich der medizinischen Bildverarbeitung als besonders geeignet erwiesen, allerdings benötigen diese eine große Trainingsdatenmengen mit gegebenen Expertenannotationen. Die Erstellung solcher annotierter Datensätze für Bilddaten mit vorhandenen pathologischen Strukturen gilt als besonders herausfordernd, da die Variabilität der Pathologien verglichen mit normalen anatomischen Strukturen enorm ist. In dieser Arbeit werden deep-learning-basierte generative Modelle eingesetzt und weiterentwickelt, um die Herausforderungen von pathologischen Strukturen zu bewältigen. Einerseits wird ein variationeller Autoenocoder für die unüberwachte Detektion von Pathologien eingesetzt, andererseits werden Ansätze basierend auf GANs (generative adversarial networks) entwickelt, um realistische künstliche annotierte Bilder mit pathologischen Strukturen zu generieren. Weiterhin können die vorgestellten Ansätze für die Verbesserung der Bildregistrierung und Segmentierung von Bildern mit Pathologien eingesetzt werden.
- KonferenzbeitragHochqualitativ Verifikation für VP-basierte Heterogene Systeme(D22, 2022) Hassan, MuhammadIn dieser Dissertation werden mehrere neuartige Ansätze entwickelt, die verschiedene Verifikationsaspekte abdecken, um den modernen, auf Virtuellen Prototypen (VP)-basierten, Verifikationsablauf stark zu verbessern. Die Beiträge sind im Wesentlichen in vier Bereiche unterteilt: Der erste Beitrag führt eine neue Verifikationsperspektive für VPs ein, indem er Metamorphic Testing (MT) verwendet, da im Gegensatz zu modernen VP-basierten Verifikationsabläufen keine Referenzmodelle/-werte für die Verifikation benötigt werden. Der zweite Beitrag schlägt hochqualitative Methoden zum Schließen der Code-Abdeckung in modernen VP-basierten Verifikationsabläufen vor, indem er Mutationsanalyse und stärkere Abdeckungsmetriken wie Datenfluss- Abdeckung berücksichtigt. Der dritte Beitrag besteht aus einer Reihe hochqualitativ, neuartiger, systematischer und leichtgewichtigen funktionalen Methoden zur Verbesserung der relevanten Ab- deckungsmetriken. Der vierte und letzte Beitrag dieser Arbeit sind neuartige Ansätze, die eine frühzeitige Sicherheitsvalidierung von VPs ermöglichen. Alle Ansätze werden im Detail vorgestellt und ausführlich mit mehreren Experimenten evaluiert, die ihre Effektivität durch einen hochqualitativ VP-basierten Verifikationsfluss für heterogene Systeme deutlich machen.