Konferenzbeitrag

IA von Websites: asynchrone Remote-Tests und Laborstudien im Vergleich

Lade...
Vorschaubild
Volltext URI
Dokumententyp
Text/Conference Paper
Datum
2012
Zeitschriftentitel
ISSN der Zeitschrift
Bandtitel
Quelle
Mensch & Computer 2012: interaktiv informiert – allgegenwärtig und allumfassend!?
Webseitenanalyse
Verlag
Oldenbourg Verlag
Zusammenfassung
Der Beitrag zeigt auf, wie Crowdsourcing-Verfahren für asynchronous remote usability testing eingesetzt werden können. Das konkrete Szenario hierfür ist die Untersuchung der Informationsarchitektur (IA) von Websites mit Hilfe des Tree-Test und des Navigations-Stress-Test. Für beide Methoden wurden Crowdsourcing-kompatible Online-Verfahren entwickelt bzw. angepasst. In einer Vergleichsstudie werden jeweils gleiche Aufgaben sowohl über Crowdsourcing-Plattformen als auch in einem Laborsetting getestet. Diese empirische Studie zeigt, dass sich vergleichbare Ergebnisse erzielen lassen, wobei sich für die Crowdsourcing-basierte Untersuchung mit vergleichsweise geringem Aufwand hinreichend viele Testpersonen rekrutieren lassen. Der Beitrag ist insofern auch im Sinne des network as the extension of the usability laboratory zu verstehen.
Beschreibung
Meier, Florian; Wolff, Christian (2012): IA von Websites: asynchrone Remote-Tests und Laborstudien im Vergleich. Mensch & Computer 2012: interaktiv informiert – allgegenwärtig und allumfassend!?. München: Oldenbourg Verlag. ISBN: 978-3-486-71879-9. pp. 133-142. Webseitenanalyse
Zitierform
DOI
Tags