Auflistung nach Autor:in "Kerzel, Matthias"
1 - 2 von 2
Treffer pro Seite
Sortieroptionen
- WorkshopbeitragEreigniserkennung während der Exploration audio-taktiler Karten(Mensch & Computer 2012: interaktiv informiert – allgegenwärtig und allumfassend!?, 2012) Kerzel, Matthias; Habel, ChristopherIn einem Mensch-Computer-Interface kann eine Kombination aus haptischer und verbaler Interaktion für Benutzer mit eingeschränkter Sehfähigkeit als Substitution für die visuelle Modalität dienen. Für die Domäne der Stadtpläne wird ein System vorgestellt, das regelbasiert die haptische Exploration von Karten beobachtet, bedeutungstragende Ereignisse erkennt und konzeptualisiert und so die Generierung natürlich-sprachlicher Assistenz begleitend zur Exploration ermöglicht.
- ZeitschriftenartikelWhat’s on Your Mind, NICO?(KI - Künstliche Intelligenz: Vol. 36, No. 0, 2022) Kerzel, Matthias; Ambsdorf, Jakob; Becker, Dennis; Lu, Wenhao; Strahl, Erik; Spisak, Josua; Gäde, Connor; Weber, Tom; Wermter, StefanExplainable AI has become an important field of research on neural machine learning models. However, most existing methods are designed as tools that provide expert users with additional insights into their models. In contrast, in human-robot interaction scenarios, non-expert users are frequently confronted with complex, embodied AI systems whose inner workings are unknown. Therefore, eXplainable Human-Robot Interaction (XHRI) should leverage the user’s intuitive ability to collaborate and to use efficient communication. Using NICO, the Neuro-Inspired COmpanion, as a use-case study, we propose an XHRI framework and show how different types of explanations enhance the interaction experience. These explanations range from (a) non-verbal cues for simple and intuitive feedback of inner states via (b) comprehensive verbal explanations of the robot’s intentions, knowledge and reasoning to (c) multimodal explanations using visualizations, speech and text. We revisit past HRI-related studies conducted with NICO and analyze them with the proposed framework. Furthermore, we present two novel XHRI approaches to extract suitable verbal and multimodal explanations from neural network modules in an HRI scenario.