Auflistung nach Autor:in "Chojecki, Paul"
1 - 6 von 6
Treffer pro Seite
Sortieroptionen
- KonferenzbeitragAugmented Reality- und KI-Assistenzsysteme in der Kampfmittelräumung(Mensch und Computer 2024 - Usability Professionals, 2024) Packmohr, Pia Maria; Trukenbrod, Anna Katharina; Chojecki, PaulDas Arbeitsfeld der Kampfmittelräumung (KMR) umfasst das Aufspüren und Bergen von Kriegsaltlasten. Erschwert wird der Arbeitsprozess durch widrige Bedingungen bei der Arbeit im Gelände und Medienbrüche zwischen verschiedenen Akteuren. Die Branche zeigt Interesse an technischen Innovationen, deren Praxistauglichkeit jedoch vor dem Hintergrund der hohen Sicherheitsanforderungen sehr kritisch beurteilt wird. Das Forschungsprojekt ARES untersucht Bedarfe, Akzeptanz und Interaktionskonzepte für Augmented Reality-Assistenzsysteme sowie KI-gestützte Methoden zur Datenauswertung in der KMR. Die nutzerzentrierte Gestaltung, Entwicklung und Evaluation erfolgt iterativ. Die erhobenen Bedarfe wurden in AR-Konzepte überführt und mit Anwender:innen getestet. Ein Demonstrator aus AR- und KMR- Hard- und Software sowie Ansätze zur KI-basierten Optimierung der Messqualität werden stetig weiterentwickelt. Der Vortrag gibt einen Einblick in das Vorgehen im Projekt und die bisherigen Ergebnisse.
- ZeitschriftenartikelBerührungslose Gestik-Interaktion im OperationssaalTouchless Gesture-Interaction in the Operating Room(i-com: Vol. 8, No. 1, 2009) Chojecki, Paul; Leiner, UlrichTouchscreens mit neuen Bedienmetaphern erweitern die Möglichkeiten der Mensch-Maschine-Kommunikation. Apples iPhone und Microsofts Surface sind prominente Beispiele für diesen Trend. Es gibt jedoch Nutzungsszenarien, bei denen Touchscreens nicht die optimale Eingabeschnittstelle darstellen. Dazu gehören medizinische Aufgaben, wie die Einstellung von Geräten und die Navigation in Patienteninformationssystemen im OP. Hierbei darf die Grenze zwischen sterilem und unsterilem Bereich nicht durch haptischen Kontakt überschritten werden. In diesem Beitrag wird eine neuartige Lösung dieses Problems vorgestellt. Das Fraunhofer-Institut für Nachrichtentechnik, Heinrich-Hertz-Institut (Fraunhofer HHI) hat dafür eine berührungslose Gestensteuerung entwickelt. Stereo-Kameras erkennen die Fingerposition, wenn der Nutzer auf das Display zeigt. Das System berechnet dabei die genauen Raumkoordinaten eines oder mehrerer Finger. Diese Koordinaten werden in Echtzeit an die zu bedienende Anwendung weitergegebe...
- KonferenzbeitragBerührungslose Interaktion im Operationssaal(Workshop Proceedings der Tagungen Mensch & Computer 2008, DeLFI 2008 und Cognitive Design 2008, 2008) Leiner, Ulrich; Chojecki, PaulOperateure und deren Assistenten führen häufig Bedienaktionen an medizinischen Geräten während einer Operation aus. Dabei darf die Grenze zwischen sterilem und unsterilem Bereich nicht durch haptische Eingaben verletzt werden. Wir schlagen vor, dieses Problem durch berührungslose Gestensteuerung zu lösen. Hierbei kommen zur Erkennung der Gesten Stereo-Kameras zum Einsatz, die die Handposition genau erfassen und nahezu in Echtzeit an das zu steuernde System weitergeben. Wir stellen den Stand unserer Arbeiten im Vergleich zu konkurrierenden Technologien vor und belegen mit Testergebnissen, wie Nutzer praxisrelevante Einzelfragen bewerten.
- KonferenzbeitragDesign und Evaluation eines non- vs. quasimodalen UI für das gestengesteuerte Teach-in eines Roboters(Mensch und Computer 2018 - Usability Professionals, 2018) Brettmeister, Damian; Chojecki, PaulDas Ziel der vorliegenden Arbeit bestand in der Entwicklung und Evaluierung eines User Interfaces (UI) für die berührungslose Gestensteuerung eines Roboters. Es wurde untersucht, inwieweit die Konzepte der Non- und Quasimodalität von Jef Raskin die Gestaltung von menschzentrierten UIs für die berührungslose Mensch-Roboter-Interaktion (MRI) begünstigen. Die Ergebnisse zeigen, dass der Entwicklungsprozess für neue Arten der Mensch-System-Interaktion, wie der berührungslosen MRI, durch die Anwendung der Konzepte von Anfang an und auf einer fundamentalen Ebene unterstützt wird. Die Durchführung und Auswertung von Usability-Tests bestätigte, dass sowohl das quasimodale als auch das non-modale UI eine hohe menschzentrierte Qualität aufweisen und die Anwendung der Konzepte Modus-Fehler in der Interaktion weitgehend vermeidet.
- Textdokument„Luftmäuse“ – berührungslose „Multipointing-Interaktion“(Tagungsband UP08, 2008) Chojecki, Paul; Leiner, UlrichHeutzutage stehen dem Nutzer bereits viele verschiedene Möglichkeiten der Mensch-Computer-Interaktion zur Verfügung. Dennoch wird weiterhin nach neuen Lösungen gesucht, da immer noch Aufgaben und Nutzungskontexte bestehen, für die keine optimalen Eingabegeräte vorhanden sind. Ein Trend der letzten Zeit sind sicherlich Multi-Touch-Benutzerschnittstellen. Diese Technologie wurde nicht ausschließlich von Apple vorangetrieben, ist aber durch die Einführung von Apples jüngster Produktlinie in hohem Maße bekannt geworden. Doch was könnte der nächste Schritt sein, der über das Berühren von Bildschirmen hinausgeht, um eine bessere Mensch-Computer-Interaktion zu ermöglichen? In diesem Beitrag wird ein Ansatz des Fraunhofer-Instituts für Nachrichtentechnik / Heinrich-Hertz-Institut vorgestellt: Videokameras und Algorithmen zur Bildanalyse und Objekterkennung ermöglichen eine nicht-invasive, also berührungs-, und markerlose Interaktion zwischen Anwender und Computer. Der Nutzer kann Eingaben durch einfache Handgesten tätigen, da das System die Raumkoordinaten eines oder mehrerer Finger des Nutzers erkennt. Mit solchen „Multipointing“- Eingabedaten kann einerseits die MausBedienung substituiert werden, darüber hinaus eröffnen diese viele neue Optionen für die Mensch-MaschineInteraktion. Die hier vorgestellte Untersuchung beschäftigt sich mit einer für „Luftmäuse“ grundlegenden Fragestellung: Welche Geste ersetzt den Mausklick besser, ein Zeitschwellwert oder eine Vorwärtsbewegung des zeigenden Fingers?
- TextdokumentNeue Interaktion für alte Medien: Gestenbasierte, berührungslose Interaktion mit digitalisierten Büchern(Tagungsband UP10, 2010) Chojecki, Paul; Leiner, Ulrich; Przewozny, DavidWeltweit werden in Bibliotheken und Archiven einzigartige Werke, u.a. alte Bücher und Handschriften aufbewahrt und vor dem Verfall geschützt. Diese notwendige Verwahrung ist zugleich auch ein „Wegsperren“ der kostbaren Kulturgüter vor dem Publikum, egal ob Laie oder Experte. Von Zeit zu Zeit werden diese Schätze unserer Geschichte in Ausstellungen der Öffentlichkeit zugänglich gemacht. Dennoch sind auch dann die Möglichkeiten der Präsentation als auch der Interaktion mit solchen Ausstellungsstücken sehr begrenzt. Der Nutzer/Besucher sieht meist nur zwei Seiten eines aufgeschlagen Buchs, welches in einer Vitrine gesichert ist und darf selbstredend nicht blättern. In Zusammenarbeit mit dem Digitalisierungszentrum der Bayerischen Staatsbibliothek und der Firma Microbox haben wir eine Lösung erarbeitet, welche diese Einschränkungen obsolet macht. Den BSB-Explorer, eine Installation, welche dem Nutzer eine berührungslose, gestenbasierte Interaktion mit einem digitalen 3D-Modell des Originals ermöglicht. Hierfür mussten mehrere technische als auch konzeptionelle Hürden überwunden werden. Passende Gesten wurden durch Nutzerstudien und Expertenevaluierungen gefunden. Die kamerabasierte Erkennungssoftware wurde um diese Gesten erweitert und für den Praxiseinsatz robust gemacht. In diesem Artikel stellen wir den Arbeitsablauf, aufgetretene Probleme und unsere Lösungen vor.