Logo des Repositoriums
 

IA von Websites: asynchrone Remote-Tests und Laborstudien im Vergleich

dc.contributor.authorMeier, Floriande_DE
dc.contributor.authorWolff, Christiande_DE
dc.contributor.editorReiterer, Harald
dc.contributor.editorDeussen, Oliver
dc.date.accessioned2017-11-22T15:00:46Z
dc.date.available2017-11-22T15:00:46Z
dc.date.issued2012
dc.description.abstractDer Beitrag zeigt auf, wie Crowdsourcing-Verfahren für asynchronous remote usability testing eingesetzt werden können. Das konkrete Szenario hierfür ist die Untersuchung der Informationsarchitektur (IA) von Websites mit Hilfe des Tree-Test und des Navigations-Stress-Test. Für beide Methoden wurden Crowdsourcing-kompatible Online-Verfahren entwickelt bzw. angepasst. In einer Vergleichsstudie werden jeweils gleiche Aufgaben sowohl über Crowdsourcing-Plattformen als auch in einem Laborsetting getestet. Diese empirische Studie zeigt, dass sich vergleichbare Ergebnisse erzielen lassen, wobei sich für die Crowdsourcing-basierte Untersuchung mit vergleichsweise geringem Aufwand hinreichend viele Testpersonen rekrutieren lassen. Der Beitrag ist insofern auch im Sinne des network as the extension of the usability laboratory zu verstehen.de_DE
dc.identifier.isbn978-3-486-71879-9
dc.identifier.urihttps://dl.gi.de/handle/20.500.12116/7786
dc.language.isodede_DE
dc.publisherOldenbourg Verlag
dc.relation.ispartofMensch & Computer 2012: interaktiv informiert – allgegenwärtig und allumfassend!?
dc.subjectCrowdsourcingde_DE
dc.subjectasynchronous remote usability testingde_DE
dc.subjectInformationsarchitekturde_DE
dc.subjectVergleichsstudiede_DE
dc.titleIA von Websites: asynchrone Remote-Tests und Laborstudien im Vergleichde_DE
dc.typeText/Conference Paperde_DE
gi.citation.endPage142
gi.citation.publisherPlaceMünchen
gi.citation.startPage133de_DE
gi.conference.sessiontitleWebseitenanalysede_DE
gi.document.qualitydigidoc

Dateien

Originalbündel
1 - 1 von 1
Lade...
Vorschaubild
Name:
Meier_Wolff_2012.pdf
Größe:
271.46 KB
Format:
Adobe Portable Document Format