Summary

Metodi per test visivo attenzione online

Published: February 19, 2015
doi:

Summary

To replicate laboratory settings, online data collection methods for visual tasks require tight control over stimulus presentation. We outline methods for the use of a web application to collect performance data on two tests of visual attention.

Abstract

Metodi di raccolta dati online hanno particolare appello agli scienziati del comportamento, perché offrono la promessa di molto più grande e molto più campioni di dati rappresentativi che può essere normalmente raccolti nei campus universitari. Tuttavia, prima che tali metodi possono essere ampiamente adottati, una serie di sfide tecnologiche deve essere superato – in particolare negli esperimenti in cui è necessario uno stretto controllo sulle proprietà di stimolo. Qui vi presentiamo i metodi per la raccolta di dati sulle prestazioni su due prove di attenzione visiva. Entrambi i test richiedono controllo sul angolo visivo degli stimoli (che a sua volta richiede la conoscenza della distanza di osservazione, dimensione del monitor, risoluzione dello schermo, etc.) e la sincronizzazione degli stimoli (come le prove coinvolgono sia brevemente lampo stimoli o stimoli che si muovono a tassi specifici). I dati raccolti in questi test da oltre 1.700 partecipanti in linea erano coerenti con i dati raccolti in versioni di laboratorio degli stessi esatti test. Questi risultatisuggeriscono che con la cura adeguata, taglia i tempi / stimolo attività dipendenti possono essere distribuiti in ambienti web-based.

Introduction

Negli ultimi cinque anni c'è stato un aumento di interesse per l'uso di metodi comportamentali in linea di raccolta dei dati. Mentre la stragrande maggioranza delle pubblicazioni nel campo della psicologia hanno utilizzato le popolazioni potenzialmente non rappresentativi soggetto 1 (vale a dire, principalmente studenti universitari) e spesso ragionevolmente campioni di piccole dimensioni così (cioè, tipicamente nella gamma di decine di soggetti), metodi in linea offrono la promessa di gran lunga più diverse e più grandi campioni. Per esempio, il servizio Mechanical Turk di Amazon è stata oggetto di numerosi studi recenti, sia che descrive le caratteristiche della popolazione "lavoratore" e l'utilizzo di questa popolazione nella ricerca comportamentale 2-6.

Tuttavia, un problema significativo relative a tali metodi è la relativa mancanza di controllo sulle variabili di stimolo critiche. Ad esempio, nella maggior parte dei compiti visivi psicofisici, stimoli sono descritti in termini diangolo visivo. Il calcolo degli angoli visuali richiede misure precise di distanza di visione, dimensioni dello schermo e la risoluzione dello schermo. Mentre questi parametri sono banali per misurare e controllo in un ambiente di laboratorio (dove c'è un monitor chiamata e partecipanti visualizzare stimoli mentre in una mentoniera posta una distanza nota dal monitor), lo stesso non è vero per la raccolta di dati in linea. In un ambiente online, non solo i partecipanti inevitabilmente utilizzare una vasta gamma di monitor di diverse dimensioni con impostazioni software differenti, anche non possono avere facile accesso ai governanti / nastro misure che avrebbe permesso loro di determinare la loro dimensione del monitor o avere le conoscenze necessarie per determinare le impostazioni software e hardware (ad esempio, la frequenza di aggiornamento, risoluzione).

Qui si descrive una serie di metodi per raccogliere i dati su due prove ben noti di attenzione visiva – il campo utile di View (UFOV) paradigma 7 e l'oggetto più tracking (MOT) compito <sup> 8 – evitando il più possibile le fonti di variabilità che sono insiti nelle misurazioni in linea. Questi compiti possono essere gestiti da qualsiasi partecipante con una connessione internet e un browser compatibile HTML5. I partecipanti che non conoscono la loro dimensione dello schermo sono camminato attraverso un processo di misurazione che utilizza oggetti comunemente disponibili di dimensioni standard (ad esempio, carta di credito / CD – vedi Figura 1).

I dati su queste due attività sono stati raccolti da oltre 1.700 partecipanti in un Massive linea Open Course. Performance media di questo campione on-line è stato molto coerente con i risultati ottenuti in misure di laboratorio strettamente controllate degli esatti compiti stessi 9,10. I nostri risultati sono quindi coerenti con la crescente corpo di letteratura che dimostrano l'efficacia dei metodi di raccolta dati on-line, anche in compiti che richiedono un controllo specifico su condizioni di visione.

Protocol

Il protocollo è stato approvato dal comitato istituzionale di revisione presso la University of Wisconsin-Madison. I seguenti punti sono stati scritti come una guida per i programmatori di replicare il processo automatizzato dell'applicazione web descritto. 1. Accesso partecipante Istruire il partecipante di utilizzare un computer con connessione internet-enabled e passare all'applicazione Web utilizzando un browser compatibile HTML5: <a href="http://brainandlearning.org/…

Representative Results

Rimozione Outlier Un totale di 1.779 partecipanti ha completato l'operazione UFOV. Di questi, 32 partecipanti hanno avuto soglie UFOV che erano più di 3 deviazioni standard dalla media, suggerendo che non erano in grado di svolgere l'attività secondo le istruzioni. Come tali, i dati UFOV da questi partecipanti sono stati rimossi dalla ultima analisi, lasciando un totale di 1.747 partecipanti. I dati sono stati ottenuti da 1.746 partecipanti per l'attiv…

Discussion

La raccolta di dati on-line ha un certo numero di vantaggi rispetto raccolta dati standard in laboratorio. Questi includono la possibilità di assaggiare molto più popolazioni rappresentativi del tipico collegio piscina laurea utilizzato nel campo, e la capacità di ottenere ben maggiori dimensioni del campione in meno tempo di quello necessario per ottenere le dimensioni del campione che sono un ordine di grandezza più piccola in laboratorio 1-6 (per esempio, i punti di dati raccolti da 1,700+ par…

Divulgazioni

The authors have nothing to disclose.

Acknowledgements

The authors have nothing to disclose.

Materials

Name of Reagent/ Equipment Company Catalog Number Comments/Description
Computer/tablet N/A N/A It must have an internet connection and an HTML5 compatible browser
CD or credit card N/A N/A May not be needed if participant already knows the monitor size

Riferimenti

  1. Henrich, J., Heine, S. J., Norenzayan, A. The weirdest people in the world. The Behavioral And Brain Sciences. 33, 61-135 (2010).
  2. Buhrmester, M., Kwang, T., Gosling, S. D. Amazon’s Mechanical Turk: A new source of inexpensive, yet high-quality, data. Perspectives on Psychological Science. 6 (1), 3-5 (2011).
  3. Goodman, J. K., Cryder, C. E., Cheema, A. Data collection in a flat world: the strengths and weaknesses of mechanical turk samples. Journal of Behavioral Decision Making. 26 (3), 213-224 (2013).
  4. Mason, W., Suri, S. Conducting behavioral research on Amazon’s Mechanical Turk. Behavior Research Methods. 44 (1), 1-23 (2012).
  5. Crump, M. J., McDonnell, J. V., Gureckis, T. M. Evaluating Amazon’s Mechanical Turk as a tool for experimental behavioral research. PLoS One. 8, e57410 (1371).
  6. Lupyan, G. The difficulties of executing simple algorithms: why brains make mistakes computers don’t. Cognition. 129, 615-636 (2013).
  7. Ball, K., Owsley, C. The useful field of view test: a new technique for evaluating age-related declines in visual function. J Am Optom Assoc. 64 (1), 71-79 (1993).
  8. Pylyshyn, Z. W., Storm, R. W. Tracking multiple independent targets: Evidence for a parallel tracking mechanism. Spatial Vision. 3 (3), 179-197 (1988).
  9. Dye, M. W. G., Bavelier, D. Differential development of visual attention skills in school-age children. Vision Research. 50 (4), 452-459 (2010).
  10. Green, C. S., Bavelier, D. Enumeration versus multiple object tracking: The case of action video game players. Cognition. 101 (1), 217-245 (2006).
  11. Chengalur, S. N., Rodgers, S. H., Bernard, T. E. Chapter 1. Kodak Company. Ergonomics Design Philosophy. Kodak’s Ergonomic Design for People at Work. , (2004).
  12. Elze, T., Bex, P. P1-7: Modern display technology in vision science: Assessment of OLED and LCD monitors for visual experiments. i-Perception. 3 (9), 621 (2012).
  13. Elze, T., Tanner, T. G. Temporal Properties of Liquid Crystal Displays: Implications for Vision Science Experiments. PLoS One. 7 (9), e44048 (2012).
check_url/it/52470?article_type=t

Play Video

Citazione di questo articolo
Yung, A., Cardoso-Leite, P., Dale, G., Bavelier, D., Green, C. S. Methods to Test Visual Attention Online. J. Vis. Exp. (96), e52470, doi:10.3791/52470 (2015).

View Video