Logo des Repositoriums
 
Konferenzbeitrag

IA von Websites: asynchrone Remote-Tests und Laborstudien im Vergleich

Lade...
Vorschaubild

Volltext URI

Dokumententyp

Text/Conference Paper

Zusatzinformation

Datum

2012

Zeitschriftentitel

ISSN der Zeitschrift

Bandtitel

Verlag

Oldenbourg Verlag

Zusammenfassung

Der Beitrag zeigt auf, wie Crowdsourcing-Verfahren für asynchronous remote usability testing eingesetzt werden können. Das konkrete Szenario hierfür ist die Untersuchung der Informationsarchitektur (IA) von Websites mit Hilfe des Tree-Test und des Navigations-Stress-Test. Für beide Methoden wurden Crowdsourcing-kompatible Online-Verfahren entwickelt bzw. angepasst. In einer Vergleichsstudie werden jeweils gleiche Aufgaben sowohl über Crowdsourcing-Plattformen als auch in einem Laborsetting getestet. Diese empirische Studie zeigt, dass sich vergleichbare Ergebnisse erzielen lassen, wobei sich für die Crowdsourcing-basierte Untersuchung mit vergleichsweise geringem Aufwand hinreichend viele Testpersonen rekrutieren lassen. Der Beitrag ist insofern auch im Sinne des network as the extension of the usability laboratory zu verstehen.

Beschreibung

Meier, Florian; Wolff, Christian (2012): IA von Websites: asynchrone Remote-Tests und Laborstudien im Vergleich. Mensch & Computer 2012: interaktiv informiert – allgegenwärtig und allumfassend!?. München: Oldenbourg Verlag. ISBN: 978-3-486-71879-9. pp. 133-142. Webseitenanalyse

Zitierform

DOI

Tags