Metoder til usability-evaluering

Slides:



Advertisements
Lignende præsentationer
Et DEFF projekt under programområdet Mødet med Brugeren. Primo og usability 1.
Advertisements

Muligheder for samspil mellem usability-evaluering og interaktionsdesign Jan Stage Professor, PhD Forskningsleder i Informationssystemer (IS)/Human-Computer.
Modul 1 - Processer.
Usability og interaktionsdesign i en mindre IT virksomhed Infinit 13
Situationelle Metoder til Digitale Studier
Overskrift her Navn på oplægsholder Navn på KU- enhed For at ændre ”Enhedens navn” og ”Sted og dato”: Klik i menulinjen, vælg ”Indsæt” > ”Sidehoved / Sidefod”.
Humanistisk fagsprog Humanistiske fag – dansk, engelsk, tysk, historie mfl. Udgangspunk i ”tekster” Forståelse og fortolkning er overordnet karakteristisk.
Iterativ udvikling og UP
Information Systems work and Analysis of Change
Trivselsundersøgelse og ledelsesevaluering
Erfaringer med samspil – 1: Lad udviklerne deltage! Anders Bruun Janne Jul Jensen Mikael B. Skov
Gymnasietid Lektielæsning Læringsstile. Lektielæsning Hvad er god lektielæsning? ◦ Man når at lave det, man har planlagt (realistisk planlægning) ◦ Man.
Usability ITU, efterår Usability metoder 2. oktober 2008 Usability, IT-Universitetet Ole Gregersen.
1 The Case Research Strategy in Studies of Information Systems Af:Izak Benbasat, David K. Goldstein og Melissa Mead Publiceret: MIS Quaterly i 1987.
The Utility of Organisational Ethnography Konklusion. Neyland.
DIEB-DEB2.1 Kursusgang 2 Oversigt: Sidste kursusgang Udarbejdelse af testplan Forberedelse af usability-evaluering Udførelse af usability-evaluering Effekt.
COMPARISON OF EMPIRICAL TESTING AND WALKTHROUGH METHODS IN USER INTERFACE EVALUATION Af Clare Marie Karat, Robert Campbel og Tarra Fiegel IBM T.J. Watson.
1 FM4 Feltstudier og etnografi – Lars Michael Kjeldskov, J. and Stage, J. (2003) The Process of Developing a Mobile Device for Communication in a Safety-Critical.
Design af brugerflader2.1 Kursusgang 2 Oversigt: Sidste kursusgang Computeren Brugbarhedsevaluering: etablering af rammer.
DIEB-DEB13.1 Lektion 13: Øvelse Oversigt: Instruktion.
DIEB15.1 Kursusgang 15 Omkostninger ved usability-arbejde Oversigt: Sidste kursusgang Opgaver Cost justification Use Case Evaluation.
Usability – øvelse 2: Heuristisk inspektion
Hanne-Pernille Stax, ph.d
Humanistisk fagsprog og læringsstile Dagens program
Trivselsundersøgelse og ledelsesevaluering Anæstesiologisk Afdeling Flere ledere
Administrative medarbejdere i DSB - hvem er de? - hvilke behov? v. Benedicte Due, Usability specialist hos DSB IT Temadag om personas Infinit 2. maj 2012.
ETU 2008 | Elevtilfredshedsundersøgelse Erhvervsskolen Nordsjælland HTX (Teknisk Gymnasium) - Hillerød Baseret på 313 besvarelser.
Infinit - Usability Usability test i en mindre IT virksomhed.
Grunde til at jeg elsker dig
Usability – øvelse 1: Kortsortering
© (2001) Jesper Kjeldskov, Mikael Skov, Jan Stage 1.1 Usability Engineering 1. INTRODUKTION l Menneske-maskin interaktion (HCI) l Oversigt l Mål for design.
Systemudvikling og kommunikation med brugerne
1 QA and user research
USABILITY Session 1 Introduktion til kurset Introduktion til usability.
Sundhedsinformatik og evaluering Forelæsning nr.4 d ST8: Design og evaluering af brugergrænseflader, forår 2004, v/ Egil Boisen (Ph.D.-stud., HST,
Aalborg University – Department of Production Introduction to Industry Foundation Classes (IFC) Kaj A. Jørgensen Aalborg Universitet, Institut for Produktion.
Usability 24. marts Tilgængelighed 2. Dagens øvelse 3. Spørgsmål.
DIEB14.1 Kursusgang 14 Tidsforbrug til en usability-evaluering Oversigt: Sidste kursusgang Opgaver Aktiviteter Erfaringer med tidsforbrug Instant Data.
’Card sort’ Kort sortering  Om ’Usability testing’  Praktisk information vedr. øvelserne  Dagens øvelse  Aflevering af testrapporter  Diverse.
Nyere usability testmetoder web-adfærd, personalisering og adaptivitet.
Kursusintroduktion Elektronisk Patient Journal?. Kursusbeskrivelsen – formål: Viden om informationssystemer på hospitaler/sygehuse – specielt billeddannende.
Dagbladet Information Agenda for onsdag den IT-Universitet og faget usability Brugerproblemer ved information.dk Overordnet anbefalinger Kortsortering.
DIEB4.1 Kursusgang 4 Oversigt: Sidste kursusgang Opgaver Aktivitet 2: Generer design (fortsat) Design af interaktionselementer.
Critical appraisal ” All scientific work is incomplete – whether it be observational or experimental. All scientific work is liable to be upset or modified.
Heuristisk Evaluering / Ekspertgennemgang
Usability – øvelse: Brugertest Arbejdet frem mod den endelige usability-rapport Forberedelser til brugertest Dagens øvelse.
DIEB11.1 Kursusgang 11 Planlægning af en usability-evaluering Oversigt: Sidste kursusgang Opgaver Usability-evaluering: repetition Evalueringsplan og evalueringsrapport.
© (2001) Jesper Kjeldskov, Mikael Skov, Jan Stage 1.1 Usability Engineering Outlook eller Pine: Brugbart?
2. Øvelse, 18.2 Heuristisk inspektion 1. Informanter til tænke højt forsøg 2. DFI-gruppe oplæg om kortsortering 3. Næste ugers oplæg 4. Dagens øvelse;
Usability ITU, forår Usability metoder. Usability ITU, forår 2008 Overvej undervejs ”- Hvilke metoder kunne være relevante at bruge ift. til de.
DIEB4.1 Kursusgang 4 Oversigt: Sidste kursusgang Opgaver Aktivitet 2: Generer design (fortsat) Design interaktionselementer Analysedokumentet.
Usability ITU, forår 2008 Usability ITU Forår 2008 ’Teori 2’ 3. kursusgang, 14. februar 2008.
Kjeld Svidt  Institut for Byggeri og Anlæg  Aalborg Universitet IT i Byggeriet Semester 6, kursusgang Databaser (1) Kjeld Svidt
DIEB-DEB3.1 Lektion 3: Øvelse 2 Oversigt: Instruktion.
DIEB12.1 Kursusgang 12 Feedback fra en usability-evaluering Oversigt: Sidste kursusgang Opgaver Feedback Are Usability Reports Any Good? Alternativer til.
Design af brugerflader5.1 Kursusgang 5 Oversigt: Sidste kursusgang Fremlæggelse Brugbarhedsevaluering: ­ Teknikker til brugbarhedstest ­ Heuristisk inspektion.
Usability – øvelse 2: Heuristisk evaluering
DIEB10.1 Kursusgang 10 Oversigt: Sidste kursusgang Eksempler på løsning af opgaven Arkitektur for brugergrænsefladen og for systemet Dokumentation af designet.
DIEB15.1 Kursusgang 15 Oversigt: Sidste kursusgang Fremlæggelse Brugbarhedsevaluering: ­ Teknikker til brugbarhedstest ­ Heuristisk inspektion ­ Tænke-højt.
DIEB15.1 Kursusgang 15 Omkostninger ved usability-arbejde Oversigt: Sidste kursusgang Opgaver Cost justification Use Case Evaluation.
DIEB-DEB14.1 Lektion 13: Øvelse 2 Oversigt: Instruktion.
DIEB11.1 Kursusgang 11 Planlægning af en usability-evaluering Oversigt: Sidste kursusgang Opgaver Usability-evaluering: repetition Evalueringsplan og evalueringsrapport.
DIEB12.1 Kursusgang 12 Oversigt: Sidste kursusgang Computeren Brugbarhedsevaluering: etablering af rammer og testplan.
Repetition: Ekspert review. ? Principper? Udfordringer? Hvornår i udviklingsprocessen? Fordele/ulemper ekspertreview i forhold til brugertest?
Ledende oversygeplejerske Arne Brehm Høj Afdeling for Operation og Anæstesiologi Sydvestjysk Sygehus.
Kvalitative metoder, forår kursusgang
Software Testing Software testing.
eller bare brugerrvenlighedsevaluering
Kursusgang 12 Feedback fra en usability-evaluering Oversigt:
Samspil mellem moderne sygepleje og højteknologi på operationsstuen Profiler, kompetenceniveauer og adaptiv kapacitet Erik Elgaard Sørensen, Professor,
Præsentationens transcript:

Metoder til usability-evaluering Jan Stage Professor, PhD Forskningsleder i Informationssystemer (IS)/Human-Computer Interaction (HCI) Aalborg Universitet, Institut for Datalogi, HCI-Lab jans@cs.aau.dk

Oversigt Introduktion MAUSE-projektet Klassiske metoder Moderne metoder Opsummering 2

Oversigt Introduktion MAUSE-projektet Klassiske metoder Praksis MAUSE-projektet Klassiske metoder Moderne metoder Opsummering 3

Metoder til usability-evaluering

To undersøgelser af forhindringer i praksis Primært Nordjylland Software-virksom-heder, typisk svar fra mellemledere Deltagere i en-dages konference om usability Tallene angiver procent af svarene i hver undersøgelse Første undersøgelse Anden undersøgelse

Oversigt Introduktion MAUSE-projektet Klassiske metoder Projektets formål Review, report and refine (R3UEMs) Typer af evalueringsmetoder Klassiske metoder Moderne metoder Opsummering 6

MAUSE-projektet Financieret af EU under COST programmet Førende forskere inden for usability-arbejde fra det meste af Europa Resultater inden for: Måling af kvalitet af interaktive systemer Definition og måling af user experience Nytteværdi af usability-evaluering (downstream) Samspillet mellem software-udvikling og usability-evaluering http://www.cost294.org/

Review, Report and Refine (R3UEMs) Katalog over eksisterende metoder til usability-evaluering Baseret på en overordnet opdeling: DGMM Data Gathering and Modelling Methods UIEM User Interactions Evaluation Methods CM Collaborative Methods http://141.115.28.2/cost294/upload/522.pdf 8

DGMM Data Gathering and Modelling Methods (1) Used for gaining knowledge about users and their activities and provide representations of these Two subcategories: DGM Data Gathering Methods Focus on ways to gather knowledge about the relevant characteristics of the users, tasks and contexts in which interactive systems are being used Examples of methods: Surveys (users, tasks, contexts) Think aloud (about the the way a work task is carried out) Card sorting (key concepts and their relations)

DGMM Data Gathering and Modelling Methods (2) Often associated with specific data gathering methods Provide, at various levels of detail, with variable underlying models and languages, an accurate representation of users and their activities Examples of methods: Personas Task models Scenarios Use cases 10

UIEM User Interactions Evaluation Methods (1) Explicitly targeted towards evaluation Two subcategories: KMbM Knowledge- and Model-based Methods Analytical and not necessarily requiring direct access to users Three categories: Expert evaluation: inspection based solely on the evaluator’s knowledge and experience – Examples: expert inspection or walkthrough Document-based evaluation: inspection based on some guiding documents, at various degrees of precision – Examples: heuristic evaluation or walkthrough Model-based evaluation: inspection based on some theoretical models, usually cognitive – Example: cognitive walkthrough

UIEM User Interactions Evaluation Methods (2) Empirical Methods Can only be used after some form of interaction design is available Direct acces to end-users is mandatory Example: classical user testing 12

CM Collaborative Methods Referred to as “creativity methods” Require the active participation of the users in the evaluation or design Rely on various forms of organisation and communication Examples: Cooperative user testing Cooperative user testing research

Oversigt Introduktion MAUSE-projektet Klassiske metoder Bruger-baseret tænke-højt test (EM) Ekspert-baseret heuristisk inspektion (KMbM) Erfaringer Moderne metoder Opsummering 14

Bruger-baseret tænke-højt test (EM) Fordele: Giver ”meget stærk oplevelse” Meget præcis problempåpegning Giver indtryk af brugerens ”mentale model” Kan gennemføres tidligt i systemudviklings-processen En bruger løser en række realistiske opgaver ved hjælp af systemet Brugeren "tænker højt" imens: Beskriver intentioner Forklarer handlinger Udtrykker forståelse En testleder observerer og spørger, når brugeren glemmer at tænke højt Testlederen griber ind eller hjælper, når testpersonen er gået i stå Ulemper: Unaturlig situation Testlederrolle meget svær Omfattende analysearbejde Fokus på “novice-brugere” Systemet testes på opgavernes præmisser Designere påvirkes stærkt Meget stresset situation for brugeren

Ekspert-baseret heuristisk inspektion (KMbM) Eksperterne arbejder individuelt og noterer problemer ud fra en checkliste (heuristikker) Scenario med relevante opgaver kan strukturere processen Systemet gennemgås to gange: Fokus på helhed og umiddelbare indtryk Fokus på detaljer såsom funktioner i forhold til opgaver I fællesskab udarbejdes en samlet problemliste Eksempel på checkliste: Enkel og naturlig dialog Tal brugerens sprog Minimer krav til hukommelsen Sørg for konsistens Giv feedback Lav tydelige udgange Lav genveje Giv konstruktive fejlmeddelelser Forebyg fejl 16

Erfaringer Bruger-baserede (EM empiriske metoder) Eksempel: tænke-højt med en typisk bruger Styrke: problemerne er oplevede, og deres alvor kan vurderes Svaghed: tidskrævende at forberede og gennemføre 100-200+ timer over 4-6 uger Ekspert-baserede (KMbM viden- eller modelbaserede metoder) Eksempel: heuristisk inspektion udført af en HCI-ekspert Styrke: kan gennemføres hurtigt og fjerne ”bommerter” Svaghed: mange falske positiver

Oversigt Introduktion MAUSE-projektet Klassiske metoder Moderne metoder Målsætning Eksempler Opsummering 18

Aktiviteter i en usability-evaluering Testplan: Formål Hovedspørgsmål Brugerprofil Deltagere og roller Testmetoder Opgaver Kontekst og udstyr Dataindsamling Formidlingsform For hver deltager: Introduktion Opgaveløsning Logning Debriefing Rapport (komplet) Rapport (fokuseret) Redesignforslag Redesign workshop Observation Multimedia præsentation Opgavedefinering Planlægning Forberedelse Udførelse Fortolkning Formidling Form: formative/summative I udviklingsprocessen: Eksplorativ Vurdering Validering Sammenligning Deltagere og roller Sted og udstyr Genskabelse af kontekst Informering af deltagerne Fordel roller i teamet Klargør udstyr Opgaveudarbejdelse Fremstilling af materialer Tidsforbrug Videoanalyse Transskribering af logfiler Identifikation af problemer Kategorisering af problemer

Moderne metoder Moderne metoder er typisk udviklet for at finde løsninger, der fjerner eller reducerer vigtige forhindringer for usability-arbejde i praksis Fire eksempler: Alle fire giver metode (støtter udførelse) Reducere tidsforbruget i den ”dyreste” aktivitet Inddrage udviklerne Adgang til brugerne Inddrage brugerne (og reducere tidsforbruget)

1. Reducere tidsforbruget Data analysis is the single most resource demanding activity IDA – right after the evaluation: Usability problems are documented Organized by a facilitator Significant reduction: 75-90% of effort Almost the same number of problems are identified 21

1. Instant Data Analysis (IDA) Antal fundne problemer: Tid brugt på analyse: IDA = 11.5 t., Video = 59.75 t. Instant Data Analysis kan: Hjælpe evaluatorer til at identificere de mest kritiske og alvorlige usability-problemer oplevet af testbrugerne. Udføres på kun 20% af tiden sammenlignet med traditionel videoanalyse Reducere “støj” skabt ved kosmetiske og unikke usability-problemer   IDA Video Total Kritisk 16 13 18 Alvorligt 17 Kosmetisk 8 19 37 44 54 Instant Data Analysis is an interesting technique for reducing effort within the discount usability tradition 22

2. Inddrage udviklerne Udviklerne kan trænes i usability-evaluering Første forsøg et forløb på 10 x 4 timer (40 timer) Mere fokus på problemidentifikation Nu et revideret forløb på (40 timer): 2 dages undervisning 1 dags øvelse 1 dags evaluering med coaching 1 dags dokumentation Udviklet et værktøj til identifikation og kategorisering af usability-problemer 23

3. Adgang til brugerne Remote usability-evaluering er en situation hvor evaluatorerne er adskilt fra brugerne i tid og/eller rum (Castillo, Hartson og Hix, 1998) Remote synkron: Testleder og bruger er fysisk adskilt med realtids-observation af brugere Data indsamles via webcam, mikrofon og screen capture software og analyseres efterfølgende, som var det en traditionel test Fordele: Billigt teknisk udstyr Testpersoner/testleder behøver ikke befinde sig samme sted Brugerne kan bedre lide det end almindeligt lab Samme performance som lab-test med videoanalyse 24

Remote synkron evaluering Often difficult to organize an evaluation Use the Internet as the laboratory Synchronous performance is comparable Asynchronous requires significantly less effort (about 15%) as the users are testing

4. Inddrage brugerne Remote Asynkron Evaluering: Fordele: Testleder og bruger er fysisk adskilt Brugerne modtager korte instruktioner og udfører testen uden testleder Ingen direkte observation af brugerne Data indsamles via en webformular (f.eks. kvalitative problembeskrivelser) Indrapporterede problemer filtreres og bearbejdes efterfølgende Fordele: Simpelt setup (ingen kameraer mv.) Testbrugere behøver ikke at være fysisk til stede Brugerne genererer selv data 26

Remote Asynkron: Resultater   Lab Remote Asynchronous Usability problems: # % Critical (21) 20 95 10 48 Serious (17) 14 82 2 15 Cosmetic (24) 12 50 1 4 Total (62) 46 74 13 21 62 usabilityproblemer identificeret i alt RA finder 50 % af de kritiske problemer Tidsforbrug

Oversigt Introduktion MAUSE-projektet Klassiske metoder Moderne metoder Opsummering 28

Metoder til usability-evaluering Katalog over eksisterende metoder: Data Gathering and Modelling Methods User Interactions Evaluation Methods Collaborative Methods Beskrivelse af klassiske metoder Bruger-baseret tænke-højt test (EM) Ekspert-baseret heuristisk inspektion (KMbM) Eksempler på moderne metoder Reducere tidsforbruget i den ”dyreste” aktivitet (IDA) Inddrage udviklerne (Træning i usability evaluering) Adgang til brugerne (remote synkron) Inddrage brugerne – og reducere tidsforbruget (remote asynkron)