Logo des Repositoriums
 

Klassischer Studio-UX-Test vs. unmoderierter Remote-UX-Test – Wie unterscheiden sich die Ergebnisse bei parallelisierten Aufgabestellungen?

dc.contributor.authorOlschner, Siegfriedde_DE
dc.contributor.authorFeindt, Doreende_DE
dc.contributor.authorMohr, Tinade_DE
dc.contributor.authorSchubert, Ulfde_DE
dc.date.accessioned2017-11-18T00:23:47Z
dc.date.available2017-11-18T00:23:47Z
dc.date.issued2014
dc.description.abstractUm eine größere Anzahl an Anwendern in den Softwareentwicklungsprozess einzubinden, bieten sich online durchgeführte, unmoderierte User Experience Tests an. Diese lassen sich im Vergleich zu Labor-Tests schnell und kostengünstig umsetzen. Während im Web-Bereich sogenannte Crowd-Tests eine gewisse Akzeptanz gefunden haben, stellt sich die Frage, welche Daten und vor allem welche Datenqualität ein unmoderierter User Experience Test im Bereich On Premise-Business-Software liefert. Um diese Fragestellung zu beantworten, wurde eine Vergleichsstudie durchgeführt. Ziel war es, die Methode der unmoderierten Remote-Tests allgemein zu validieren, die Vorzüge und Schwachstellen zu identifizieren und einen Vergleich zu den klassischen User Experience Tests im Labor herzustellen. Hierzu wurden zwei Gruppen rekrutiert, die jeweils einen klar umrissenen Bereich innerhalb der DATEV-Business-Software testen und bewerten sollten. Identisch zum 'moderierten Labor-UX-Test' (N=10) bearbeitete die Gruppe 'unmoderierter UX-Test' (N=20) dieselben Fragestellungen und Aufgabenszenarien, innerhalb so weit wie möglich parallelisierter Rahmenbedingungen. Die Ergebnisse der Studie und unsere Erfahrungen werden im Beitrag vorgestellt und diskutiert. Außerdem werden Tipps zur praktischen Umsetzung gegeben.de_DE
dc.identifier.urihttps://dl.gi.de/handle/20.500.12116/5405
dc.publisherGerman UPAde_DE
dc.relation.ispartofUP14 - Vorträgede_DE
dc.subjectUX-Researchde_DE
dc.subjectMethodenvergleichde_DE
dc.subjectCrowd-Testde_DE
dc.subjectUsability-Testde_DE
dc.subjectBusiness-Softwarede_DE
dc.titleKlassischer Studio-UX-Test vs. unmoderierter Remote-UX-Test – Wie unterscheiden sich die Ergebnisse bei parallelisierten Aufgabestellungen?de_DE
dc.typeText/Conference Paperde_DE
gi.citation.publisherPlaceStuttgartde_DE
gi.conference.sessiontitleUX Evaluationde_DE
gi.document.qualitydigidocde_DE

Dateien

Originalbündel
1 - 1 von 1
Lade...
Vorschaubild
Name:
Olschner_Feindt_Schubert_2014.pdf
Größe:
506.84 KB
Format:
Adobe Portable Document Format