Auflistung nach Schlagwort "Heuristische Evaluation"
1 - 7 von 7
Treffer pro Seite
Sortieroptionen
- KonferenzbeitragExpertenreviews: Fünf Experten – fünf Meinungen. Wie einig sind sich Experten aus homogenen Gruppen?(UP 2016, 2016) Held, Theo; Kupferschmidt, YannickSpätestens seit den von dialogdesign (R. Molich) durchgeführten Studien CUE-3 bis CUE-5 ist klar, dass das Expertenreview ein mächtiges und zugleich preiswertes Werkzeug zur Beurteilung der Gebrauchstauglichkeit von Produkten ist. Es zeigte sich jedoch auch, dass die Schnittmengen der Review-Ergebnisse unterschiedlicher Experten erstaunlich klein sind. Die vorliegende Arbeit versucht, mögliche Gründe für diese Heterogenität der Ergebnisse zu ermitteln. Dazu werden Reviews mit zwei unterschiedlichen aber in sich sehr homogenen Gruppen von Experten durchgeführt (erfahrene Usability Experten einer Firma und Studenten mit innerhalb der Gruppe identischem Ausbildungsstand). Die Resultate werden innerhalb und zwischen den Gruppen sowie mit den Resultaten eines umfangreich analysierten Usability Tests verglichen.
- KonferenzbeitragHeuristiken für Second-Screen-Anwendungen(Mensch und Computer 2018 - Tagungsband, 2018) Lohmüller, Valentin; Schmaderer, Daniel; Wolff, ChristianIn dieser Arbeit wurde auf Basis von Nielsens (1994b) Ten Usability Heuristics in einem rechercheba-sierten Ansatz anhand von spezifischer Literatur eine domänenspezifische Heuristik für Second-Screen-Anwendungen ausgearbeitet und zu einer Checkliste erweitert. Um die Qualität dieser Checkliste zu bewerten, wurde eine heuristische Evaluation einer Second-Screen-Anwendung mit fünf Anwendern durchgeführt und deren Ergebnisse mit einer Nutzerstudie mit 20 Teilnehmern verglichen. Dabei ergab sich eine mittlere Validität von 0.5 und eine hohe Vollständigkeit von 0.74. Das harmonische Mittel dieser Werte ergibt bei einer Gleichgewichtung ein F-Maß von 0.6. Dieser Wert spricht für eine ausrei-chende Validität der erstellten heuristischen Checkliste in der ersten Iteration.
- TextdokumentKooperative Evaluation: Usability Inspektion in komplexen und verteilten Anwendungsdomänen(Tagungsband UP04, 2004) Brau, Henning; Schulze, HartmutMit der zunehmenden Verwebung von System- und Prozessgestaltung wird die Usability-Evaluation von einzuführenden IT-Systemen vor neue Herausforderungen gestellt. Diese werden am Praxisbeispiel von IT-Systemen zur Produktionsplanung, wie sie im Rahmen der Digitalen Fabrik für die Automobilindustrie entwickelt wurden, aufgezeigt. Exemplarisch wird mit der Kooperativen Evaluation eine erweiterte Methodik basierend auf der Heuristischen Evaluation als Lösungsansatz vorgestellt, um die integrierte Bewertung von Prozessabbildung und System bewältigen zu können.
- muc: langbeitrag (vorträge)MCI-DL: Optimierung von Gebrauchstauglichkeit und UX(Mensch & Computer 2013: Interaktive Vielfalt, 2013) Karsten, Dirk; Schimmer, Bernd; Herczeg, Michael; Kindsmüller, Martin ChristofDie "Digital Library Mensch-Computer-Interaktion" des Fachbereichs "Mensch-Computer-Interaktion" der Gesellschaft für Informatik e.V. (GI) ist eine auf der Open-Source-Software "DSpace" basierende web-basierte digitale Bibliothek für alle fachbereichsbezogenen Publikationen. In diesem Beitrag wird die Konzeption und das Design einer neuen Benutzungsschnittstelle vorgestellt. Im Rahmen einer Eingangsanalyse wurde bestimmt, inwieweit sich die Gebrauchstauglichkeit und User Experience (UX) der digitalen Bibliothek optimieren lassen. Die Ergebnisse etablierter Heuristiken und einer Benutzeranalyse, basierend auf dem "User Experience Questionnaire", dienten als Grundlage für die Entwicklung der neuen Benutzungsschnittstelle. Die Abschlussevaluation dokumentiert, dass die Gebrauchstauglichkeit und UX der digitalen Bibliothek von der neuen Benutzungsschnittstelle profitiert haben.
- KonferenzbeitragUser Experience Review - Ein einfaches und flexibles Verfahren zur Beurteilung der User Experience durch Experten.(Mensch und Computer 2019 - Usability Professionals, 2019) Held, Theo; Schrepp, Martin; Mayalidag, RenateEine strukturierte Beurteilung der UX Qualität eines Produkts ist wichtig, um Verbesserungen zu identifizieren und um die dafür notwendigen Aufwände gegenüber dem Management zu rechtfertigen. Neben Usability-Tests und dem Einsatz von Fragebögen, sind Experten-Reviews eine kostengünstige Methode, die UX eines Produkts zu beurteilen. Wir stellen ein einfaches und flexibel einsetzbares Verfahren zum Experten-Review vor, das sowohl pragmatische als auch hedonische UX Aspekte berücksichtigt und gleichermaßen geeignet ist, Stärken und Schwächen eines Produkts herauszuarbeiten. Das vorgestellte Verfahren nutzt eher allgemein gehaltene Beschreibungen und Beispiele von UX Qualitäten. Die Auswahl der im Review zu berücksichtigenden UX Qualitäten wird an das konkrete Produkt angepasst. Die Durchführung des Verfahrens und die vorhandenen Materialien werden an einem konkreten Beispiel erklärt. Tipps und Erfahrungen aus einer Reihe von Anwendungen werden mit den Teilnehmern geteilt.
- KonferenzbeitragUX Professionals als Softwareinspektoren - Wie, wann und warum werden (Experten-)Reviews in der Praxis eingesetzt?(Mensch und Computer 2019 - Usability Professionals, 2019) Held, Theo; Schrepp, Martin(Experten-)Reviews sind eine wirksame, kostengünstige und bewährte Methode, Softwareprodukte in nahezu allen Design- oder Entwicklungsstadien zu evaluieren. Beim Einsatz in der betrieblichen Praxis stellen sich für UX Professionals jedoch eine Reihe von zentralen Fragen: Wie sieht es mit der Akzeptanz der Ergebnisse bei Management und Entwicklung aus? Wird Resultaten, die von internen Professionals stammen überhaupt vertraut, oder ist es in bestimmten Fällen ratsam, auf externe Expertise zurückzugreifen? Sind gründliche Experten-Reviews wirklich preiswerter als z.B. formative Usability Tests? Wie unterscheiden sich die Ergebnisse von denen anderer Verfahren und welche besonderen Stärken haben Reviews? An welchen Stellen des Design- und Entwicklungsprozesses sollten Reviews am besten eingesetzt werden? Diese und eine Reihe weiterer Fragen sollen in diesem Workshop mit Experten und allen an der Methodik interessierten UX Professionals diskutiert und systematisch untersucht werden.
- KonferenzbeitragValidierung von Web-Usability-Heuristiken für eine ältere Zielgruppe(Mensch und Computer 2018 - Workshopband, 2018) Böhm, Victoria; Langer, Andrea; Wolff, ChristianDieser Beitrag stellt die Validierung von spezifischen Web-Usability-Heuristiken für die ältere Zielgruppe vor. Das Heuristiken-Set stammt aus einer Vorarbeit und wurde literarturbasiert abgeleitet. Zur Validierung werden ein Nutzertest mit zehn Probanden aus der Zielgruppe sowie eine heuristische Evaluation mit drei Experten durchgeführt. Die Ergebnisse beider Evaluationsmethoden werden quantitativ und qualitativ miteinander verglichen und etablierte Kennwerte zum Methodenvergleich berechnet. Beide Evaluationen liefern ähnliche Werte bezogen auf Validität und Effektivität. Aufgrund der hohen Anzahl an unique problems fällt die Gründlichkeit geringer aus, als bei anderen Methodenvergleichen.