Summary

Metoder for å teste Visual Attention Online

Published: February 19, 2015
doi:

Summary

To replicate laboratory settings, online data collection methods for visual tasks require tight control over stimulus presentation. We outline methods for the use of a web application to collect performance data on two tests of visual attention.

Abstract

Online datainnsamlingsmetoder har særlig appell til atferdsforskere fordi de tilbyr et løfte om mye større og mye mer representative dataprøver enn kan vanligvis hentes på høyskoler. Men før slike metoder kan bli mye vedtatt, må overvinne en rekke teknologiske utfordringer – spesielt i eksperimenter hvor stram kontroll over stimulans egenskaper er nødvendig. Her presenterer vi metoder for å samle inn ytelsesdata på to tester av visuell oppmerksomhet. Begge testene krever kontroll over den visuelle vinkelen på stimuli (som igjen krever kunnskap om synsavstand, skjermstørrelse, skjermoppløsning, etc.) og timingen av stimuli (som testene innebære enten kort blinket stimuli eller stimuli som beveger på rater). Data som samles inn på disse testene fra over 1700 online deltakerne var i samsvar med data samlet inn i laboratorie-baserte versjoner av de samme testene. Disse resultatenetyder på at med riktig pleie, kan timing / stimulans størrelse avhengige oppgaver bli utplassert i web-baserte innstillinger.

Introduction

I løpet av de siste fem årene har det vært en bølge av interesse for bruk av online atferdsdatainnsamlingsmetoder. Mens det store flertallet av publikasjoner i domenet av psykologi har benyttet potensielt ikke-representative lagt populasjoner 1 (dvs. hovedsakelig college studenter) og ofte rimelig små utvalgsstørrelser samt (dvs. typisk i størrelsesorden titalls fag), online metoder gi løfte om langt mer varierte og større prøver. For eksempel har Amazons Mechanical Turk tjenesten vært gjenstand for en rekke nyere studier, både beskrive kjennetegn ved "arbeidstaker" befolkning og bruk av denne befolkningen i atferdsforskning 2-6.

Men en betydelig bekymring i forbindelse med slike fremgangsmåter er den relative mangel på kontroll over kritiske stimulerings variabler. For eksempel, i de fleste visuelle psyko oppgaver, er stimuli beskrevet i form avvisuell vinkel. Beregningen av visuelle vinkler krever presise målinger av synsavstand, skjermstørrelse og skjermoppløsning. Mens disse parametrene er trivielt å måle og kontroll i en lab innstilling (der det er en kjent monitor og deltakerne vise stimuli mens i en hake resten plassert en kjent avstand fra skjermen), det samme er ikke sant av online datainnsamling. I et online-miljø, ikke bare deltakerne vil bruke uunngåelig et bredt utvalg av skjermer i ulike størrelser med ulike programvareinnstillinger, de også ikke kan ha enkel tilgang til herskere / tape tiltak som ville tillate dem å bestemme sin skjermstørrelse eller har kunnskap er nødvendig å bestemme deres programvare og maskinvare innstillinger (f.eks oppdateringsfrekvens, oppløsning).

Her beskriver vi et sett av metoder for å samle inn data på to kjente tester av visuell oppmerksomhet – det nyttige synsfelt (UFOV) paradigme 7 og flere objekt sporing (MOT) oppgave <sup> 8 – samtidig unngå så mye som mulig kildene til variabilitet som er iboende i online målinger. Disse oppgavene kan kjøres av noen av deltakerne med en internettforbindelse og en HTML5-kompatibel nettleser. Deltakere som ikke kjenner sin skjermstørrelse gikk gjennom en måleprosessen benytter vanlig tilgjengelige elementer av standard størrelse (dvs. kredittkort / CD – se figur 1).

Data om disse to oppgavene ble samlet inn fra over 1700 deltakere i en Massive Online Åpne Course. Gjennomsnittlig ytelse av dette online prøven var svært konsistent med resultatene som er oppnådd i godt kontrollerte laboratoriebaserte tiltak av nøyaktig samme oppgavene 9,10. Våre resultater er dermed i tråd med den økende mengde litteratur som viser effekten av elektroniske datainnsamlingsmetoder, selv i oppgaver som krever spesiell kontroll over visningsforhold.

Protocol

Protokollen ble godkjent av Institutional Review Board ved University of Wisconsin-Madison. Følgende trinn er skrevet som en guide for programmerere å gjenskape den automatiserte prosessen med web-applikasjon beskrevet. 1. Logg Deltaker Instruere deltakeren til å bruke en datamaskin med Internett-tilgang og naviger til webapplikasjon ved hjelp av en HTML5-kompatibel nettleser: http://brainandlearning.org/jove . Har …

Representative Results

Outlier Fjerning Totalt 1779 deltakere fullførte UFOV oppgave. Av disse hadde 32 deltakere UFOV terskler som var større enn 3 standardavvik fra gjennomsnittet, noe som tyder på at de ikke var i stand til å utføre oppgaven som instruert. Som sådan, ble UFOV data fra disse aktørene fjernet fra den endelige analysen, etterlot seg en totalt 1747 deltakere. Data ble hentet fra 1746 deltakere for MOT oppgave. To deltakerne hadde gjennomsnittlige treffpoengsummer so…

Discussion

Online datainnsamling har en rekke fordeler fremfor standard laboratorium-basert datainnsamling. Disse inkluderer muligheten til å smake langt mer representative populasjoner enn den typiske college lavere basseng benyttes i feltet, og evnen til å få langt større utvalgsstørrelser på kortere tid enn det tar å få utvalgsstørrelser som er en størrelsesorden mindre i laboratoriet 1-6 (for eksempel datapunktene samlet inn fra 1,700+ deltakere i dagens papir ble oppnådd på mindre enn en uke). …

Divulgazioni

The authors have nothing to disclose.

Acknowledgements

The authors have nothing to disclose.

Materials

Name of Reagent/ Equipment Company Catalog Number Comments/Description
Computer/tablet N/A N/A It must have an internet connection and an HTML5 compatible browser
CD or credit card N/A N/A May not be needed if participant already knows the monitor size

Riferimenti

  1. Henrich, J., Heine, S. J., Norenzayan, A. The weirdest people in the world. The Behavioral And Brain Sciences. 33, 61-135 (2010).
  2. Buhrmester, M., Kwang, T., Gosling, S. D. Amazon’s Mechanical Turk: A new source of inexpensive, yet high-quality, data. Perspectives on Psychological Science. 6 (1), 3-5 (2011).
  3. Goodman, J. K., Cryder, C. E., Cheema, A. Data collection in a flat world: the strengths and weaknesses of mechanical turk samples. Journal of Behavioral Decision Making. 26 (3), 213-224 (2013).
  4. Mason, W., Suri, S. Conducting behavioral research on Amazon’s Mechanical Turk. Behavior Research Methods. 44 (1), 1-23 (2012).
  5. Crump, M. J., McDonnell, J. V., Gureckis, T. M. Evaluating Amazon’s Mechanical Turk as a tool for experimental behavioral research. PLoS One. 8, e57410 (1371).
  6. Lupyan, G. The difficulties of executing simple algorithms: why brains make mistakes computers don’t. Cognition. 129, 615-636 (2013).
  7. Ball, K., Owsley, C. The useful field of view test: a new technique for evaluating age-related declines in visual function. J Am Optom Assoc. 64 (1), 71-79 (1993).
  8. Pylyshyn, Z. W., Storm, R. W. Tracking multiple independent targets: Evidence for a parallel tracking mechanism. Spatial Vision. 3 (3), 179-197 (1988).
  9. Dye, M. W. G., Bavelier, D. Differential development of visual attention skills in school-age children. Vision Research. 50 (4), 452-459 (2010).
  10. Green, C. S., Bavelier, D. Enumeration versus multiple object tracking: The case of action video game players. Cognition. 101 (1), 217-245 (2006).
  11. Chengalur, S. N., Rodgers, S. H., Bernard, T. E. Chapter 1. Kodak Company. Ergonomics Design Philosophy. Kodak’s Ergonomic Design for People at Work. , (2004).
  12. Elze, T., Bex, P. P1-7: Modern display technology in vision science: Assessment of OLED and LCD monitors for visual experiments. i-Perception. 3 (9), 621 (2012).
  13. Elze, T., Tanner, T. G. Temporal Properties of Liquid Crystal Displays: Implications for Vision Science Experiments. PLoS One. 7 (9), e44048 (2012).
check_url/it/52470?article_type=t

Play Video

Citazione di questo articolo
Yung, A., Cardoso-Leite, P., Dale, G., Bavelier, D., Green, C. S. Methods to Test Visual Attention Online. J. Vis. Exp. (96), e52470, doi:10.3791/52470 (2015).

View Video