Auflistung nach Schlagwort "Touch und Gestik"
1 - 6 von 6
Treffer pro Seite
Sortieroptionen
- WorkshopbeitragAutomatisierte 3D-Modellierung für individualisierbare Massenprodukten(Mensch & Computer 2014 - Tagungsband, 2014) Braun, Simone; Mouaouya, Sifeddine; Siekmann, Kirsten; Wallenborn, Ramona; Westphal-Furuya, Markus; Wolf, PeterPersonalisierte Produkte werden gerade im Konsumgüterbereich immer mehr nachgefragt. Additive Manufacturing (3D-Druck) bietet hier neue Perspektiven um den Kundenwünschen zu begegnen. Die Mitgestaltung des Endkunden ist jedoch ohne 3D-Modellierungskenntnisse nur begrenzt möglich. Der hier vorgestellte Ansatz ermöglicht es auch einem nicht technisch und gestalterisch versierten Kunden im Rahmen von Freiheitsgraden ein Grundmodell zu individualisieren.
- KonferenzbeitragEmpfehlungen für die Gestaltung von Erratbarkeitsstudien zur Ermittlung von benutzerdefinierten Gesten(Mensch & Computer 2014 - Tagungsband, 2014) Fetter, Mirko; Gross, TomDieser Beitrag gibt Empfehlungen, die es bei der Gestaltung von Erratbarkeitsstudien (Guessability Studies) zur Ermittlung von durch Benutzerinnen und Benutzer definierten Gesten zu beachten gilt. Basierend auf einer Analyse verwandter Arbeiten und einer eigenen Studie, identifizieren wir kritische Aspekte und geben Hinweise für die Gestaltung und Durchführung von Erratbarkeitsstudien.
- WorkshopbeitragEvaluating user preference on touch screen tablets by a complex tapping task with multiple targets(Mensch & Computer 2014 - Tagungsband, 2014) Stark, Thorsten; Schade, Stefan; Stade, Melanie Janina ChristineThe aim of this study was to investigate objective data indicating preferred areas of a touch screen tablet. Participants had to tap one of several colored targets arranged in theoretical sections. We assume that the sections with the highest number of touches indicate preference and “comfort zones”. We found that the middle right section is the most preferred area on the tablet screen regardless of tablet orientation (portrait vs. landscape) and posture (single vs. both handed).
- KonferenzbeitragEvaluation der Interaktion mit einer AR-basierten Smartphone-App(Mensch & Computer 2014 - Tagungsband, 2014) Domhardt, Michael; Dinic, Radomir; Stütz, Thomas; Ginzinger, SimonMenschen wie Diabetiker oder Herzpatienten mit verordneter Ernährungstherapie sind auf die exakte Portionsgrößenbestimmung ihrer Mahlzeiten angewiesen. Bisherige Ansätze, dies mittels digitaler Bildverarbeitung zu vereinfachen, erwiesen sich als wenig benutzbar. In diesem Beitrag wird die Interaktion mit einer AR-basierten Smartphone-App untersucht. Dazu wurden zwei touchbasierte AR-Interaktionskonzepte (3-Punkt und Mesh) implementiert und im Rahmen eines Nutzertests (n = 28) verglichen. Interaktionsprobleme verhinderten in 3 % der AR-Messungen ein Ergebnis. Eine Analyse dieser Probleme ermöglichte das Ableiten von Verbesserungsvorschlägen für die Benutzungsschnittstelle der Smartphone-App.
- WorkshopbeitragIntermodal personalized Travel Assistance and Routing Interface(Mensch & Computer 2014 - Tagungsband, 2014) Schaffer, Stefan; Reithinger, NorbertAn increasing amount of available data sources and intermodal travelling pose a challenge for the design of mobility apps. This paper examines the concept of an interface for intermodal personalized travel assistance and routing. The analysis of two central use cases intermodal routing and personalization revealed pitfalls and gaps for the design of mobility apps.
- KonferenzbeitragOsiriX in Motion – Ein Prototyp zur berührungslosen Interaktion im OP(Mensch & Computer 2014 - Tagungsband, 2014) Reich, Marcel; Hetterich, Christian; Weisser, Gerald; Meixner, GerritZur Behandlung eines Patienten müssen Chirurgen heutzutage mit einer zunehmenden Zahl an computerbasierten medizinischen Systemen intraoperativ arbeiten. Dabei besteht die größte Herausforderung vor allem darin, dass viele Peripheriegeräte nur schwer sterilisierbar sind. Im Rahmen des Projektes OsiriX in Motion wurde ein Plug-In zur berührungslosen Interaktion im Operationssaal entwickelt. Das Plug-In ermöglicht eine 1-Hand-Interaktion zur Steuerung von OsiriX, einer Software zur Darstellung und Verarbeitung radiologischer DICOM-Bilddaten. Das Gestenvokabular des Plug-Ins folgt einem einheitlichen Konzept und ermöglicht somit das schnelle Erlernen der Bedienung.