Auflistung nach Schlagwort "Methodenvergleich"
1 - 4 von 4
Treffer pro Seite
Sortieroptionen
- KonferenzbeitragKlassischer Studio-UX-Test vs. unmoderierter Remote-UX-Test – Wie unterscheiden sich die Ergebnisse bei parallelisierten Aufgabestellungen?(UP14 - Vorträge, 2014) Olschner, Siegfried; Feindt, Doreen; Mohr, Tina; Schubert, UlfUm eine größere Anzahl an Anwendern in den Softwareentwicklungsprozess einzubinden, bieten sich online durchgeführte, unmoderierte User Experience Tests an. Diese lassen sich im Vergleich zu Labor-Tests schnell und kostengünstig umsetzen. Während im Web-Bereich sogenannte Crowd-Tests eine gewisse Akzeptanz gefunden haben, stellt sich die Frage, welche Daten und vor allem welche Datenqualität ein unmoderierter User Experience Test im Bereich On Premise-Business-Software liefert. Um diese Fragestellung zu beantworten, wurde eine Vergleichsstudie durchgeführt. Ziel war es, die Methode der unmoderierten Remote-Tests allgemein zu validieren, die Vorzüge und Schwachstellen zu identifizieren und einen Vergleich zu den klassischen User Experience Tests im Labor herzustellen. Hierzu wurden zwei Gruppen rekrutiert, die jeweils einen klar umrissenen Bereich innerhalb der DATEV-Business-Software testen und bewerten sollten. Identisch zum 'moderierten Labor-UX-Test' (N=10) bearbeitete die Gruppe 'unmoderierter UX-Test' (N=20) dieselben Fragestellungen und Aufgabenszenarien, innerhalb so weit wie möglich parallelisierter Rahmenbedingungen. Die Ergebnisse der Studie und unsere Erfahrungen werden im Beitrag vorgestellt und diskutiert. Außerdem werden Tipps zur praktischen Umsetzung gegeben.
- TextdokumentOnline-Fokusgruppen(Tagungsband UP12, 2012) Olschner, Siegfried; Hoffmann, Heidi; Schubert, UlfIn diesem Beitrag stellen wir unsere Erfahrungen beim Einsatz von Online-Fokusgruppen im Bereich Unternehmenssoftware vor. Zuerst beschreiben wir einen Methodenvergleich, den die DATEV eG mit Hilfe des Dienstleisters ForschungsWerk GmbH durchgeführt hat. Bei diesem wurden jeweils eine klassische Fokusgruppe, eine synchrone Online-Fokusgruppe und eine asynchrone Online-Fokusgruppe mit vergleichbaren Teilnehmern und gleicher Fragestellung durchgeführt. Die Ergebnisse des Vergleichs werden vorgestellt und Vorschläge für den Einsatz der Methoden aufgelistet. Anschließend gehen wir im Detail auf eine konkrete Projekterfahrung beim Einsatz der Methode asynchrone OnlineFokusgruppe ein. Diese wurde von der DATEV eG zusammen mit der GfK SirValUse Consulting GmbH durchgeführt. Wir beschreiben das methodische Vorgehen, zeigen aus Sicht eines IT-Dienstleisters und einer User Experience-Beratung die Vorteile und Grenzen der Methode auf und geben Tipps zur Anwendung.
- TextdokumentRemote-Testing von Online-Shops(Tagungsband UP06, 2006) Bosenick, Tim; Kühn, Martina; Nufer, Stefan; Kehr, SteffenUsability-Tests im Labor haben eine Reihe von inhärenten Schwächen, die im Wesentlichen auf die künstliche Laborsituation zurückzuführen sind. Der vorliegende Beitrag berichtet über die Gründe, die zur Entwicklung eines speziellen Remote-Testing-Ansatzes geführt haben und beschreibt, wie dieser die Schwächen vermeiden kann. Nachfolgend werden sowohl der Ansatz als auch zwei Evaluationsstudien vorgestellt, die die Ergebnisqualität eines Remote- und eines Labor-Tests im Kontext des Online-Shoppings bewerten.
- KonferenzbeitragValidierung von Web-Usability-Heuristiken für eine ältere Zielgruppe(Mensch und Computer 2018 - Workshopband, 2018) Böhm, Victoria; Langer, Andrea; Wolff, ChristianDieser Beitrag stellt die Validierung von spezifischen Web-Usability-Heuristiken für die ältere Zielgruppe vor. Das Heuristiken-Set stammt aus einer Vorarbeit und wurde literarturbasiert abgeleitet. Zur Validierung werden ein Nutzertest mit zehn Probanden aus der Zielgruppe sowie eine heuristische Evaluation mit drei Experten durchgeführt. Die Ergebnisse beider Evaluationsmethoden werden quantitativ und qualitativ miteinander verglichen und etablierte Kennwerte zum Methodenvergleich berechnet. Beide Evaluationen liefern ähnliche Werte bezogen auf Validität und Effektivität. Aufgrund der hohen Anzahl an unique problems fällt die Gründlichkeit geringer aus, als bei anderen Methodenvergleichen.