Klassischer Studio-UX-Test vs. unmoderierter Remote-UX-Test – Wie unterscheiden sich die Ergebnisse bei parallelisierten Aufgabestellungen?
dc.contributor.author | Olschner, Siegfried | de_DE |
dc.contributor.author | Feindt, Doreen | de_DE |
dc.contributor.author | Mohr, Tina | de_DE |
dc.contributor.author | Schubert, Ulf | de_DE |
dc.date.accessioned | 2017-11-18T00:23:47Z | |
dc.date.available | 2017-11-18T00:23:47Z | |
dc.date.issued | 2014 | |
dc.description.abstract | Um eine größere Anzahl an Anwendern in den Softwareentwicklungsprozess einzubinden, bieten sich online durchgeführte, unmoderierte User Experience Tests an. Diese lassen sich im Vergleich zu Labor-Tests schnell und kostengünstig umsetzen. Während im Web-Bereich sogenannte Crowd-Tests eine gewisse Akzeptanz gefunden haben, stellt sich die Frage, welche Daten und vor allem welche Datenqualität ein unmoderierter User Experience Test im Bereich On Premise-Business-Software liefert. Um diese Fragestellung zu beantworten, wurde eine Vergleichsstudie durchgeführt. Ziel war es, die Methode der unmoderierten Remote-Tests allgemein zu validieren, die Vorzüge und Schwachstellen zu identifizieren und einen Vergleich zu den klassischen User Experience Tests im Labor herzustellen. Hierzu wurden zwei Gruppen rekrutiert, die jeweils einen klar umrissenen Bereich innerhalb der DATEV-Business-Software testen und bewerten sollten. Identisch zum 'moderierten Labor-UX-Test' (N=10) bearbeitete die Gruppe 'unmoderierter UX-Test' (N=20) dieselben Fragestellungen und Aufgabenszenarien, innerhalb so weit wie möglich parallelisierter Rahmenbedingungen. Die Ergebnisse der Studie und unsere Erfahrungen werden im Beitrag vorgestellt und diskutiert. Außerdem werden Tipps zur praktischen Umsetzung gegeben. | de_DE |
dc.identifier.uri | https://dl.gi.de/handle/20.500.12116/5405 | |
dc.publisher | German UPA | de_DE |
dc.relation.ispartof | UP14 - Vorträge | de_DE |
dc.subject | UX-Research | de_DE |
dc.subject | Methodenvergleich | de_DE |
dc.subject | Crowd-Test | de_DE |
dc.subject | Usability-Test | de_DE |
dc.subject | Business-Software | de_DE |
dc.title | Klassischer Studio-UX-Test vs. unmoderierter Remote-UX-Test – Wie unterscheiden sich die Ergebnisse bei parallelisierten Aufgabestellungen? | de_DE |
dc.type | Text/Conference Paper | de_DE |
gi.citation.publisherPlace | Stuttgart | de_DE |
gi.conference.sessiontitle | UX Evaluation | de_DE |
gi.document.quality | digidoc | de_DE |
Dateien
Originalbündel
1 - 1 von 1
Lade...
- Name:
- Olschner_Feindt_Schubert_2014.pdf
- Größe:
- 506.84 KB
- Format:
- Adobe Portable Document Format