Brettmeister, DamianChojecki, PaulHess, SteffenFischer, Holger2018-08-182018-08-182018https://dl.gi.de/handle/20.500.12116/16779Das Ziel der vorliegenden Arbeit bestand in der Entwicklung und Evaluierung eines User Interfaces (UI) für die berührungslose Gestensteuerung eines Roboters. Es wurde untersucht, inwieweit die Konzepte der Non- und Quasimodalität von Jef Raskin die Gestaltung von menschzentrierten UIs für die berührungslose Mensch-Roboter-Interaktion (MRI) begünstigen. Die Ergebnisse zeigen, dass der Entwicklungsprozess für neue Arten der Mensch-System-Interaktion, wie der berührungslosen MRI, durch die Anwendung der Konzepte von Anfang an und auf einer fundamentalen Ebene unterstützt wird. Die Durchführung und Auswertung von Usability-Tests bestätigte, dass sowohl das quasimodale als auch das non-modale UI eine hohe menschzentrierte Qualität aufweisen und die Anwendung der Konzepte Modus-Fehler in der Interaktion weitgehend vermeidet.deUCDHumane Interface DesignNon- und Quasimodalität nach Jef RaskinWizard of Oz-Prototypingberührungslose Mensch-Roboter-InteraktionGestensteuerungDesign und Evaluation eines non- vs. quasimodalen UI für das gestengesteuerte Teach-in eines RobotersText/Conference Paper10.18420/muc2018-up-0181