Auflistung nach Autor:in "Wachsmuth, Ipke"
1 - 5 von 5
Treffer pro Seite
Sortieroptionen
- KonferenzbeitragAkuVis: Interactive Visualization of Acoustic Data(Umweltinformatik ’98 - Vernetzte Strukturen in Informatik, Umwelt und Wirtschaft - Computer Science for Environmental Protection ’98 - Networked Structures in Information Technology, the Environment and Business, 1998) Fehr, Rainer; Börner, Katy; Wachsmuth, IpkeAkuVis (Interactive Visualization of Acoustic Data) is a joint project involving the Artificial Intelligence as well as the Visualization Laboratory at the University of Bielefeld, government researchers from the Institute of Public Health NRW and the Local Environmental Agency Bielefeld as well as the German TÜV (Börner 1997). The project seeks to create a highly interactive virtual environment of modelled acoustic data in order to sensitize and improve human decision-making in real world tasks. In particular, it attempts to enhance the integrated understanding of noise data as a basis for governmental decisions about noise protection regulations for new streets, industrial areas etc.
- KonferenzbeitragArchitekturen situierter Kommunikatoren: Von Perzeption über Kognition zum Lernen(INFORMATIK 2003 – Innovative Informatikanwendungen, Band 2, Beiträge der 33. Jahrestagung der Gesellschaft für Informatik e.V. (GI), 2003) Fink, Gernot A.; Fritsch, Jannik; Leßmann, Nadine; Ritter, Helge; Sagerer, Gerhard; Steil, Jochen J.; Wachsmuth, IpkeCharakteristisches Merkmal intelligenter Systeme ist das Ineinandergreifen zahlreicher Teilfunktionen. Während in der Vergangenheit in erster Linie die Realisierung eines geeigneten Umfangs von tragfähigen Teilfunktionalitäten angestrebt wurde, verschieben die Fortschritte auf diesem Feld die Herausforderung mehr und mehr zur Frage einer übergreifenden Architektur, die eine große Anzahl von Teilfunktionen integrieren und zu einem "intelligenten" Zusammenwirken bringen kann. Die Entwicklung integrierter Architekturkonzepte ist eines der wesentlichen Ziele des Bielefelder SFB 360. Dabei entstanden drei auf jeweils einen zentralen Aspekt fokussierte Teildemonstratoren, die wir in diesem Beitrag vorstellen werden. Diese Teilsysteme mit den Schwerpunkten Perzeption, Kognition bzw. Lernen sind wechselseitig koppelbar und arbeiten auf einer realitätsnahen Komplexitätsebene. Die entwickelten Konzepte können somit einen wesentlichen Beitrag zur Erforschung der Architektur künstlicher kognitiver Systeme leisten.
- ZeitschriftenartikelConnecting Question Answering and Conversational Agents(KI - Künstliche Intelligenz: Vol. 26, No. 4, 2012) Waltinger, Ulli; Breuing, Alexa; Wachsmuth, IpkeResearch results in the field of Question Answering (QA) have shown that the classification of natural language questions significantly contributes to the accuracy of the generated answers. In this paper we present an approach which extends the prevalent question classification techniques by additionally considering further contextual information provided by the questions. Thereby we focus on improving the conversational abilities of existing interactive interfaces by enhancing their underlying QA systems in terms of response time and correctness. As a result, we are able to introduce a method based on a tripartite contextualization. First, we present a comprehensive question classification experiment based on machine learning using two different datasets and various feature sets for the German language. Second, we propose a method for detecting the focus chunk of a given question, that is, for identifying which part of the question is fundamentally relevant to the answer and which part refers to a specification of it. Third, we investigate how to identify and label the topic of a given question by means of a human-judgment experiment. We show that the resulting contextualization method contributes to an improvement of existing question answering systems and enhances their application within interactive scenarios.
- ZeitschriftenartikelEmpathy-Based Emotional Alignment for a Virtual Human: A Three-Step Approach(KI - Künstliche Intelligenz: Vol. 25, No. 3, 2011) Boukricha, Hana; Wachsmuth, IpkeAllowing virtual humans to align to others’ perceived emotions is believed to enhance their cooperative and communicative social skills. In our work, emotional alignment is realized by endowing a virtual human with the ability to empathize. Recent research shows that humans empathize with each other to different degrees depending on several factors including, among others, their mood, their personality, and their social relationships. Although providing virtual humans with features like affect, personality, and the ability to build social relationships, little attention has been devoted to the role of such features as factors modulating their empathic behavior. Supported by psychological models of empathy, we propose an approach to model empathy for the virtual human EMMA—an Empathic MultiModal Agent—consisting of three processing steps: First, the Empathy Mechanism by which an empathic emotion is produced. Second, the Empathy Modulation by which the empathic emotion is modulated. Third, the Expression of Empathy by which EMMA’s multiple modalities are triggered through the modulated empathic emotion. The proposed model of empathy is illustrated in a conversational agent scenario involving the virtual humans MAX and EMMA.
- KonferenzbeitragMultimodale Interaktion in der Virtuellen Realität(Mensch & Computer 2001: 1. Fachübergreifende Konferenz, 2001) Wachsmuth, Ipke; Voss, Ian; Sowa, Timo; Latoschik, Marc E.; Kopp, Stefan; Jung, BernhardVirtuelle Realität oder Virtual Reality (VR) bezeichnet ein neuartiges Kommunikationsmedium, das die unmittelbare Wechselwirkung des Menschen mit räumlich organisierten rechnergenerierten Darstellungen erlaubt. Verbunden mit körperlich verankerter Interaktion finden insbesondere gestische Eingaben starkes Interesse. Dieser Beitrag gibt einen Überblick über Forschungsarbeiten im Labor für Künstliche Intelligenz und Virtuelle Realität an der Universität Bielefeld, mit denen Grundlagen für den Einsatz gestischer und sprachlicher Interaktionstechniken entwickelt werden; als Erprobungsdomäne dient ein Szenario des virtuellen Konstruierens. Für die schnelle Erfassung komplexer Hand-Armgesten werden derzeit Datenhandschuhe und Körper-Tracker eingesetzt. Die Auswertung erfolgt mit wissensbasierten Ansätzen, die atomare Formelemente der Gestik symbolisch beschreiben und zu größeren Einheiten zusammensetzen. Ein zweites Thema ist die multimodale Interaktion durch sprachlich-gestische Eingaben, z.B. wenn auf einen Gegenstand gezeigt („dieses Rohr“) oder eine Drehrichtung („so herum“) signalisiert wird. Schließlich wird dargestellt, wie die Ansätze zur Formbeschreibung von Gesten für die Synthese natürlich wirkender gestischer Ausgaben mit einer artikulierten, anthropomorphen Figur übertragen werden können, die in laufenden Arbeiten mit Sprachausgaben koordiniert werden.