Auflistung Workshop-Band MuC 2009 nach Titel
1 - 10 von 84
Treffer pro Seite
Sortieroptionen
- KonferenzbeitragAirPiano(Workshop-Proceedings der Tagung Mensch & Computer 2009, 2009) Yosha, OmerThe lack of haptic feedback in non-tactile musical interfaces often results in control limitations as well as orientation difficulties for the user [1]. The AirPiano presents a new system for non-tactile interaction with a musical device. The system allows easy orientation in a 3D space through multimodal feedback, and advanced control through a simple but versatile mapping scheme. As a result, the usability and user experience are increased.
- KonferenzbeitragAn Attentive Digital Signage System(Workshop-Proceedings der Tagung Mensch & Computer 2009, 2009) Shmueli, Erez; Kruglov, Alexander; Puzis, Rami; Elovici, Yuval; Englert, Roman; Glezer, ChananThe conceptual architecture and prototype presented in this article aims to transform standard digital signage networks to more flexible, customer-attentive advertising systems by rapidly adjusting the content displayed on each signage to online contextual data such as environment (i.e., store location, date, and time) or customer characteristics (i.e., gender, behavior). The proposed architecture encompasses a knowledge discoverer in order to reveal hidden patterns in customers' reaction to advertisements. This mechanism enhances the fit between the content presented on each signage and the interests of individual customers.
- Konferenzbeitragattract-o-tone(Workshop-Proceedings der Tagung Mensch & Computer 2009, 2009) Kalisch, Frederik; Müller, SteffenDas attract-o-tone ist ein analog-elektronisches, performanceorientiertes Musik-Interface, welches im Rahmen des shapingthings Workshops an der Folkwang Hochschule in Essen, bei Prof.Claudius Lazzeroni und Dipl. Designer Stefan Kainbacher, seine Ursprünge hat.
- KonferenzbeitragBe-greifbare digitale Lernobjekte(Workshop-Proceedings der Tagung Mensch & Computer 2009, 2009) Winkler, Thomas; Günther, Silke; Kammler, Marc; Feldner, Benjamin; Schmitt, Felix; Herczeg, MichaelDieses Paper widmet sich der interdisziplinären Betrachtung eines Konzepts zur Integration multimedialer, be-greifbarer Lernobjekte in vernetzte Lernumgebungen. Mit Hilfe eines auf die Physis bezogenen Schalenmodells werden medienpädagogische, -theoretische, -soziologische und -systemtechnische Überlegungen zusammengeführt.
- KonferenzbeitragDer Begriff des Raums für das Feld der be-greifbaren Interaktion(Workshop-Proceedings der Tagung Mensch & Computer 2009, 2009) Robben, BernardRaum gilt als eine zentrale Kategorie für das Feld der be-greifbaren Interaktion in gemischten Wirklichkeiten. Der dafür adäquate Raumbegriff muss über den physikalischen Raum hinausweisen und das Verhältnis von space und place als komplexes Beziehungsgefüge zwischen dem Ort und den in ihn eingeschriebenen materiellen und sozialen Räumen erklären. In dieser Konzeption meint be-greifbare Interaktion mehr als haptische Schnittstellen. Was diesen Mehrwert ausmacht und in welcher Beziehung er zum Raumbegriff steht, wird skizziert und zur Diskussion gestellt.
- KonferenzbeitragBenefits of Locating Overt Visual Attention in Space Using Binocular Eye Tracking for Mixed Reality Applications(Workshop-Proceedings der Tagung Mensch & Computer 2009, 2009) Pfeiffer, Thies; Mattar, NikitaThe ”Where?” is quite important for Mixed Reality applications: Where is the user looking at? Where should augmentations be displayed? The location of the overt visual attention of the user can be used both to disambiguate referent objects and to inform an intelligent view management of the user interface. While the vertical and horizontal orientation of attention is quite commonly used, e.g. derived from the orientation of the head, only knowledge about the distance allows for an intrinsic measurement of the location of the attention. This contribution reviews our latest results on detecting the location of attention in 3D space using binocular eye tracking.
- KonferenzbeitragBenutzerstudien zur Bewertung multimodaler, interaktiver Anzeigetafeln in unterschiedlichen Entwicklungsstufen(Workshop-Proceedings der Tagung Mensch & Computer 2009, 2009) Schaffer, Stefan; Seebode, Julia; Wechsung, Ina; Metze, Florian; Möller, SebastianGegenstand des Beitrages sind zwei Evaluationsstudien einer interaktiven, digitalen Anzeigetafel. Das ursprünglich unimodale, Touchscreen-basierte System wurde schrittweise erweitert. Dabei wurde zunächst eine Sprachsteuerung implementiert, in einer zweiten Entwicklungsstufe wurde anschließend eine Gesichtserkennung ergänzt. Nach jeder Systemmodifikation erfolgte eine Benutzerstudie zur Bewertung der vom Nutzer wahrgenommenen Qualität der Interaktion mittels subjektiver, direkter Fragebogendaten und technischer, indirekter Performanzdaten. Die Ergebnisse der Fragebogendaten zeigen, dass die multimodalen Systemvarianten hinsichtlich der hedonischen Qualitäten besser beurteilt wurden als die unimodale Variante. Dies war auch dann zu beobachten, wenn sich die Bewertungen bezüglich der Usability nicht erhöhten. Die Analyse der indirekten Daten zeigte eine Verbesserung der Usability, die sich jedoch nicht in den Nutzerurteilen widerspiegelte.
- KonferenzbeitragBerührungsloses Drei-Saiteninstrument mit samplebasierter Klangerzeugung(Workshop-Proceedings der Tagung Mensch & Computer 2009, 2009) Müller, Stefanie; Schulze, Christian; Keffel, Catharina; Merz, Christian; Seeger-Kunth, Sascha; Schulze, StefanIn diesem Papier wird die Möglichkeit digitaler Klangerzeugung mittels analoger Eingabe an einem instrumentähnlichen Prototypen mit durch Laser projizierten Saiten untersucht. Die Art der Tonerzeugung verhält sich dabei für jedes zu simulierende Instrument konvergent, sodass ein einmaliges Erlernen den Benutzer zu jeder beliebigen Klangerzeugung befähigt. Die mobile Bauweise des Prototyps ermöglicht das Spiel an einem wahlfreien Ort.
- KonferenzbeitragBinokulare Blickverfolgung als Eingabe für stereoskopische VR/MR-Systeme(Workshop-Proceedings der Tagung Mensch & Computer 2009, 2009) Kleiber, Michael; Winkelholz, CarstenAm Beispiel des Geräts Tobii X-120 wird die Genauigkeit von binokularen Gaze-Tracking-Systemen analysiert. Der Fehler des 3D-Blickpunkts wird mittels Wahrscheinlichkeitsfunktionen modelliert. Eine Abschätzung bezüglich der Genauigkeit der 3D-Blickpunkterfassung ist für die Datenanalyse sowie bei der Konzeption von Interaktionstechniken wichtig. Im Beitrag wird eine Anwendung von binokularem Gaze-Tracking für ein Desktop-VR-System vorgestellt
- KonferenzbeitragBlickbewegung als Eingabemodalität in Mixed Reality(Workshop-Proceedings der Tagung Mensch & Computer 2009, 2009) Botorabi, Ali; Dzaack, JeronimoEingabemodalitäten stellen in Mixed Reality (MR) Anwendungen wichtige Komponenten dar. Die Verwendung von Blickbewegungen als Eingabemodalität ist in einer virtuell angereicherten Umgebung eine sinnvolle Ergänzung klassischer Eingabemethoden. Blickbewegungen werden per se vom Benutzer erbracht und deren Aufnahme kann mit modernen Eye-Tracking Systemen in hoher zeitlicher und örtlicher Auflösung erfolgen. Dieser Artikel fasst den Stand der heutigen Forschung und Technik im Hinblick auf Blickbewegungen als Eingabemodalität in MR Anwendungen zusammen. Um die Interaktion mit einem MR System durch Blickbewegungen zu ermöglichen, könnte der kognitive Zustand des Benutzers berücksichtigt werden. Die Einschätzung des kognitiven Benutzerzustands und der Intention einer Interaktion innerhalb eines MR Systems lässt eine adäquate Reaktion des Systems auf Benutzerbedürfnisse zu.