Auflistung nach Autor:in "Stiefelhagen, Rainer"
1 - 8 von 8
Treffer pro Seite
Sortieroptionen
- KonferenzbeitragA Web-based Platform for Interactive Image Sonification(Mensch und Computer 2015 – Workshopband, 2015) Schauerte, Boris; Wörtwein, Torsten; Stiefelhagen, Rainer
- ZeitschriftenartikelAccessibility Beyond the Desktop(Informatik Spektrum: Vol. 40, No. 6, 2017) Weber, Gerhard; Stiefelhagen, Rainer; Büttner, Ricardo; Reiners, René; Puhl, Steffen; Lübbecke, Henning
- muc: langbeitrag (vorträge)Dynamic Gaussian Force Field Controlled Kalman Filtering For Pointing Interaction(Mensch & Computer 2013: Interaktive Vielfalt, 2013) van de Camp, Florian; Stiefelhagen, RainerAs human computer interaction is extending from the desk to the whole room, modalities allowing for distant interaction become more important. Distant interaction however, is inherently inaccurate. Assisting technologies, like force fields, sticky targets, and target expansion have been shown to improve pointing tasks. We present a new variant of force fields that are modeled using Gaussian distributions, which makes placement and configuration as well as overlap handling straight forward. In addition, the force fields are dynamically activated by predicting targets, to allow for natural and fluent movements. Results from a user study show, that the dynamic Gaussian fields can speed up the time needed to click a button with a pointing gesture by up to 60%.
- KonferenzbeitragErfassung der Oberkörperpose im Kraftfahrzeug(Mensch & Computer 2014 - Workshopband, 2014) Ochs, Matthias; Schick, Alexander; Stiefelhagen, RainerDie Bestimmung der Oberkörperpose des Fahrers in einem Kraftfahrzeug stellt einen wichtigen Teil neuer intelligenter Fahrerassistenzsysteme dar, um damit Gefühlslage, Verhalten und Intentionen des Fahrers analysieren zu können. In dieser Arbeit wird ein markerloses System vorgestellt, das basierend auf einem Stereokamerasystem die Oberkörperpose des Fahrers im 3D-Raum erfasst. Hierfür werden zuerst Verfahren zur Extraktion des Oberkörpers aufgezeigt, die sowohl auf 2D-Merkmalen als auch auf den Tiefendaten basieren. Anschließend wird in einem mehrstufigen Prozess auf diesem extra-hierten Oberkörpercluster die Pose bestimmt. Mit vier Versuchsteilnehmern erfolgte die Evaluierung des Systems in einem realen Testszenario anhand von zehn Fahreraktivitäten und ca. 12000 Bildern.
- TextdokumentKünstliche Intelligenz – Die dritte Welle(INFORMATIK 2020, 2021) Schmid, Ute; Tresp, Volker; Bethge, Matthias; Kersting, Kristian; Stiefelhagen, RainerAktuelle Forschungsarbeiten aus dem Bereich Künstlichen Intelligenz werden vorgestellt. Dabei werden drei Perspektiven auf das Gebiet Maschinelles Lernen präsentiert, die über rein datenintensive Blackbox-Verfahren hinausgehen: Es werden Methoden vorgestellt, mit denen Erklärungen für die Entscheidungen von KI-Systemen generiert werden, aktuelle neurowissenschaftlich Ansätze zum maschinellen Sehen gezeigt und eine Möglichkeit Vorwissen in den Prozess des machinellen Lernens einzubringen aufgezeigt.
- ZeitschriftenartikelA Multimodal Assistive System for Helping Visually Impaired in Social Interactions(Informatik Spektrum: Vol. 40, No. 6, 2017) Sarfraz, M. Saquib; Constantinescu, Angela; Zuzej, Melanie; Stiefelhagen, RainerAccess to non-verbal cues in social interactions is vital for people with visual impairment. It has been shown that non-verbal cues such as eye contact, number of people, their names and positions are helpful for individuals who are blind. In this paper, we present a real time multi-modal system that provides such non-verbal cues via audio and haptic interfaces. We assess the usefulness of the proposed system both quantitatively and qualitatively by gathering feedback with a focus group of visually impaired participants in a typical social interaction setting. The paper provides important insight about developing such technology for this significant part of society.
- WorkshopbeitragTechnology-Centric Real-World Labs: Challenges and Opportunities for a New Mode of Participatory Research From the Perspective of Computer Science(Mensch und Computer 2023 - Workshopband, 2023) Gerling, Kathrin; Vinel, Alexey; Müller, Karin; Nierling, Linda; Stiefelhagen, Rainer; Karmann, Caroline; Lang, Daniel; Asfour, TamimReal-World Labs (RWLs) hold the promise of directly involving citizens in shared shaping of research with the goal of societal transformation. However, particularly in the case of technologycentric RWLs, this is associated with unique challenges with respect to the way technology-based intervention is negotiated particularly with respect to accessibility and understanding of emerging technologies. In this position paper, we reflect upon these challenges on the basis of three RWLs, "Accessibility", "Artificial Intelligence and Robotics", and "Cooperative Autonomous Mobility". We close with guiding principles for technology-centric RWLs that we wish to discuss with the research community in an effort to ensure that the introduction of technological intervention does not threaten the democratic notion of the concept.
- ZeitschriftenartikelUML4ALL: Gemeinsam in Diversity Teams Software modellieren(Informatik Spektrum: Vol. 40, No. 6, 2017) Müller, Karin; Petrausch, Vanessa; Jaworek, Gerhard; Henß, Jörg; Seifermann, Stephan; Loitsch, Claudia; Stiefelhagen, RainerDas gemeinsame Entwerfen von UML-Modellen durch Personen mit und ohne Seheinschränkung ist durch die aktuell vorhandenen Werkzeuge und Modellierungssprachen nur eingeschränkt möglich. Grund hierfür sind unter anderem Werkzeuge wie Eclipse, die nur bedingt barrierefrei bedienbar sind und Modellierungssprachen wie z. B. PlantUML, die die Anforderungen für eine barrierefreie Nutzung nur teilweise erfüllen. So können blinde Software-Entwickler zwar mit Eclipse und den existierenden UML-Plugins grafische Modelle erzeugen, diese jedoch nicht mit einem Screenreader lesen. Im Rahmen des Cooperate-Projektes wurde ein Kooperationswerkzeug entwickelt, das je nach Arbeitsweise eine textuelle oder grafische Modellierung erlaubt. Änderungen werden synchron gehalten. Für die textuelle Modellierung von UML-Diagrammen wurde mit UML4ALL eine textuelle Syntax entworfen, die ohne die Nachahmung von visuellen Elementen durch ASCII-Zeichen auskommt und der Arbeitsweise von Menschen mit Blindheit beispielsweise durch die Verwendung einer Präfixnotation entgegenkommt. Diese neue Sprache hilft nicht nur Menschen mit Seheinschränkung, sondern allen, die Modelle textuell entwerfen möchten. Das beschriebene Vorgehen lässt sich auch auf andere grafische Notationen übertragen. Um den Einstieg in die UML, in UML4ALL, in PlantUML und in die Entwicklungsumgebung Eclipse zu erleichtern, wurden Schulungsmaterialien erstellt, die mithilfe von taktilen Grafiken, textuellen Beschreibungen und Einführungstexten die unterschiedlichen Themen näher erläutern. Alle bisher entwickelten Inhalte inklusive einer ersten Version des Kooperationswerkzeugs wurden von Personen mit Seheinschränkung getestet und zur Verbesserung der Materialien verwendet.