Show simple item record

dc.contributor.authorMeier, Floriande_DE
dc.contributor.authorWolff, Christiande_DE
dc.contributor.editorReiterer, Harald
dc.contributor.editorDeussen, Oliver
dc.date.accessioned2017-11-22T15:00:46Z
dc.date.available2017-11-22T15:00:46Z
dc.date.issued2012
dc.identifier.isbn978-3-486-71879-9
dc.identifier.urihttp://dl.gi.de/handle/20.500.12116/7786
dc.description.abstractDer Beitrag zeigt auf, wie Crowdsourcing-Verfahren für asynchronous remote usability testing eingesetzt werden können. Das konkrete Szenario hierfür ist die Untersuchung der Informationsarchitektur (IA) von Websites mit Hilfe des Tree-Test und des Navigations-Stress-Test. Für beide Methoden wurden Crowdsourcing-kompatible Online-Verfahren entwickelt bzw. angepasst. In einer Vergleichsstudie werden jeweils gleiche Aufgaben sowohl über Crowdsourcing-Plattformen als auch in einem Laborsetting getestet. Diese empirische Studie zeigt, dass sich vergleichbare Ergebnisse erzielen lassen, wobei sich für die Crowdsourcing-basierte Untersuchung mit vergleichsweise geringem Aufwand hinreichend viele Testpersonen rekrutieren lassen. Der Beitrag ist insofern auch im Sinne des network as the extension of the usability laboratory zu verstehen.de_DE
dc.language.isodede_DE
dc.publisherOldenbourg Verlag
dc.relation.ispartofMensch & Computer 2012: interaktiv informiert – allgegenwärtig und allumfassend!?
dc.subjectCrowdsourcingde_DE
dc.subjectasynchronous remote usability testingde_DE
dc.subjectInformationsarchitekturde_DE
dc.subjectVergleichsstudiede_DE
dc.titleIA von Websites: asynchrone Remote-Tests und Laborstudien im Vergleichde_DE
dc.typetalkde_DE
dc.pubPlaceMünchen
mci.document.qualitydigidoc
mci.reference.pages133-142de_DE
mci.conference.sessiontitleWebseitenanalysede_DE


Files in this item

Thumbnail

Show simple item record