Meier, FlorianWolff, ChristianReiterer, HaraldDeussen, Oliver2017-11-222017-11-222012978-3-486-71879-9https://dl.gi.de/handle/20.500.12116/7786Der Beitrag zeigt auf, wie Crowdsourcing-Verfahren für asynchronous remote usability testing eingesetzt werden können. Das konkrete Szenario hierfür ist die Untersuchung der Informationsarchitektur (IA) von Websites mit Hilfe des Tree-Test und des Navigations-Stress-Test. Für beide Methoden wurden Crowdsourcing-kompatible Online-Verfahren entwickelt bzw. angepasst. In einer Vergleichsstudie werden jeweils gleiche Aufgaben sowohl über Crowdsourcing-Plattformen als auch in einem Laborsetting getestet. Diese empirische Studie zeigt, dass sich vergleichbare Ergebnisse erzielen lassen, wobei sich für die Crowdsourcing-basierte Untersuchung mit vergleichsweise geringem Aufwand hinreichend viele Testpersonen rekrutieren lassen. Der Beitrag ist insofern auch im Sinne des network as the extension of the usability laboratory zu verstehen.deCrowdsourcingasynchronous remote usability testingInformationsarchitekturVergleichsstudieIA von Websites: asynchrone Remote-Tests und Laborstudien im VergleichText/Conference Paper