Auflistung nach Schlagwort "Natural User Interfaces"
1 - 4 von 4
Treffer pro Seite
Sortieroptionen
- WorkshopbeitragDepthTouch: Elastische Membran zwischen virtuellem und realem Raum(Mensch & Computer 2012 – Workshopband: interaktiv informiert – allgegenwärtig und allumfassend!?, 2012) Peschke, Joshua; Göbel, Fabian; Groh, RainerDepthTouch ist ein prototypisch umgesetzer interaktiver Tisch. Hauptmerkmal ist eine elastische Projektionsoberfläche, mit der durch Eindrücken und Anheben interagiert werden kann. Es wird versucht eine Schnittstelle bereitzustellen die Multi-Touch ähnliche Interaktion mit einem zusätzlichen Tiefenparameter ermöglicht.
- TextdokumentHapTech: Intelligent controls in public spaces through mid-air haptic interaction(Mensch und Computer 2023 - Workshopband, 2023) Rosbach, Emely; Muhammad, Muhammad; Talabani-Durmus, Larin; Maral, Muhammed; Ziegler, Carina; Reuter, Hannah; Lell, Alice; Hoffer, Sabrina; Peintner, Jakob; Riener, AndreasRecently, public spaces have seen a shift towards touch-free interaction to address hygiene concerns. HapTech, a prototype of a gesture-controlled interface with mid-air haptic feedback, offers a solution. It allows users to control essential functions like lights and HVAC without physical contact. To understand the impact of visual user interfaces, a Wizard-of-Oz study was conducted. The findings suggest that while including a visual UI improves self-explainability, it also leads to longer task completion time and errors. Striking a balance is crucial, emphasizing simplistic UIs for intuitive gesture language and optional visual feedback. This optimization enhances touch-free interaction and overall user experience in public environments. We conclude that the inclusion of a visual user interface influences gesture choice and task completion, but it plays a pivotal role in improving user experience and self-explainability.
- TextdokumentInteraktionsprinzipen für Microsoft Surface Computing(Tagungsband UP09, 2009) Lutsch, ClemensMit Surface Computing umschreibt Microsoft die neuen Gestaltungsparadigmen die durch Touch und Multiple Touch Interaktion entstehen. Diese unterscheiden sich in weiten Teilen deutlich von bekannten Mensch-Maschine Modellen wie Kommandozeile oder GUI.
- TextdokumentRäumliche Gestenerkennung und Natural User Interfaces mit Microsoft Kinect(Tagungsband UP11, 2011) Oltmanns, Björn; Kruschinski, Denis; Wallach, DieterDer vorliegende Beitrag stellt Ansätze zur Realisierung von gestenbasierten User- Interfaces und Anwendungen auf Basis des 3D Sensors Microsoft Kinect in Verbindung mit Frameworks wie OpenNI und NITE vor. Nach einer kurzen Einführung in die genutzte Hard- und Software wird eine prototypische Applikation und die dieser zu Grunde liegenden Interaktionskonzepte skizziert. Hierbei kommen neben ein- und mehrhändigen Gesten insbesondere auch Konzepte wie virtuelle Cursor und Echtzeit Motion Capturing zur Analyse der Körperhaltung — lokal als auch im räumlichen Kontext — zum Einsatz. Im dritten Teil werden die vorgestellten Interaktionskonzepte schließlich diskutiert und auf Herausforderungen und Probleme — wie die Unterscheidung zwischen intentionalen und nicht-intentionalen Gesten — eingegangen.