Summary

Utilizzando i movimenti di occhio registrati nel paradigma mondo visivo per esplorare l'elaborazione Online di lingua parlata

Published: October 13, 2018
doi:

Summary

Il paradigma del mondo visivo monitora i movimenti degli occhi dei partecipanti nell’area di lavoro visual come sono ascoltando o parlando una lingua parlata. Questo paradigma può essere utilizzato per indagare l’elaborazione online di una vasta gamma di domande psicolinguistiche, tra cui istruzioni, semanticamente complesse, ad esempio disgiuntiva.

Abstract

In un tipico occhio Studio utilizzando il paradigma del mondo visivo di rilevamento, dei partecipanti occhio movimenti agli oggetti o immagini nell’area di lavoro visual vengono registrate tramite eye tracker come il partecipante produce o comprende una lingua parlata che descrive il visual simultanee mondo. Questo paradigma ha elevata versatilità, come può essere utilizzato in una vasta gamma di popolazioni, compresi quelli che non sanno leggere e/o apertamente che non può dare loro risposte comportamentali, come i bambini del preliterate, adulti anziani e pazienti. Ancora più importante, il paradigma è estremamente sensibile alle manipolazioni grana del segnale vocale, e può essere utilizzato per studiare l’elaborazione in linea della maggior parte degli argomenti nella comprensione del linguaggio a più livelli, ad esempio la grana acustica fonetica caratteristiche, le proprietà delle parole e strutture linguistiche. Il protocollo descritto in questo articolo viene illustrato come viene condotto un occhio tipico mondo visual studio di monitoraggio, con un esempio che illustra come l’elaborazione online di alcune istruzioni semanticamente complesse può essere esplorata con il paradigma del mondo visivo.

Introduction

Lingua parlata è un flusso di informazioni veloce, in corso, che scomparirà subito. È una sfida per studiare sperimentalmente questo temporale, modificare rapidamente il segnale vocale. Movimenti di occhio registrati nel paradigma mondo visivo possono essere utilizzati per superare questa sfida. In un tipico occhio tracking studio utilizzando il paradigma del mondo visivo, movimenti degli occhi dei partecipanti a immagini in un display o a oggetti reali in un’area di lavoro visual vengono monitorati come ascoltare, o produrre, lingua parlata, raffigurante il contenuto del mondo visivo1 ,2,3,4. La logica di base, o l’ipotesi di collegamento, dietro questo paradigma è che comprendere o pianificazione di un enunciato (apertamente o velatamente) sposterà il attenzione visiva dei partecipanti a un determinato oggetto nel mondo visivo. Questo spostamento di attenzione avrà un’alta probabilità di avviare un movimento di occhio saccadici per portare le frequentate in visione foveale. Con questo paradigma, i ricercatori intendono determinare a che punto temporale, rispetto a qualche punto di riferimento acustico del segnale vocale, si verifica uno spostamento di attenzione visiva del partecipante, come misurato da un movimento di occhio saccadici ad un oggetto o un’immagine in visual mondo. Quando e dove i movimenti oculari saccadici vengono lanciati in relazione il segnale vocale vengono quindi utilizzati per dedurre l’elaborazione online di lingua straniera. Il paradigma del mondo visivo può essere utilizzato per studiare la lingua parlata comprensione1,2 e la produzione5,6. Questo articolo metodologico si concentrerà sugli studi di comprensione. In uno studio di comprensione utilizzando il paradigma del mondo visivo, occhio dei partecipanti movimenti sul visual display vengono monitorati come ascoltano le espressioni vocali parlando la visuale del display.

Sistemi di tracciamento degli occhi diversi sono stati progettati nella storia. Il più semplice, meno costoso e più portatile sistema è solo una normale videocamera, che registra un’immagine degli occhi del partecipante. Movimenti oculari sono poi codificati manualmente attraverso l’esame di frame-by-frame di registrazione video. Tuttavia, la frequenza di campionamento di un eye-tracker è relativamente bassa, e la procedura di codificazione è che richiede tempo. Così, un occhio commerciale contemporaneo sistema di tracciamento normalmente utilizza sensori ottici di misura l’orientamento dell’occhio nella sua orbita7,8,9. Per comprendere il funzionamento di un sistema di eye tracking commerciale contemporaneo, da considerare i seguenti punti. Primo, per misurare correttamente la direzione della visione fovea, un illuminatore ad infrarossi (normalmente con la lunghezza d’onda intorno 780-880 nm) è normalmente disposto lungo o fuori l’asse ottico della telecamera, rendendo l’immagine della pupilla distinguishably più luminoso o più scuro rispetto l’iride circostante. L’immagine della pupilla e/o del riflesso corneale pupilla (normalmente la prima immagine di Purkinje) viene quindi utilizzato per calcolare l’orientamento dell’occhio nella sua orbita. In secondo luogo, la posizione di sguardo nel mondo visivo è in realtà contingente non solo l’orientamento dell’occhio rispetto alla testa ma anche l’orientamento della testa rispetto al mondo visivo. Per dedurre con precisione lo sguardo di proposito dall’orientamento dell’occhio, la sorgente luminosa e la telecamera di eye-tracker sono fissi rispetto alla testa dei partecipanti (testa-montata eye-tracker) o sono fissi rispetto al mondo visual (da tavolo o remoto eye-tracker). In terzo luogo, orientamento della testa dei partecipanti deve essere fissato per quanto riguarda il mondo visivo o computazionalmente essere compensato se testa dei partecipanti è libero di muoversi. Quando un eye-tracker remoto viene utilizzato in una modalità di testa-free-a-move, posizione della testa dei partecipanti è in genere registrata inserendo un piccolo adesivo sulla fronte dei partecipanti. L’orientamento della testa informaticamente viene quindi sottratto dall’orientamento dell’occhio per recuperare la posizione di sguardo del mondo visivo. In quarto luogo, una calibrazione e un processo di validazione sono quindi necessaria per mappare l’orientamento dell’occhio allo sguardo di riguardo nel mondo visivo. Nel processo di calibrazione, campioni di fissazione dei partecipanti da punti di destinazione nota vengono registrati per mappare i dati raw occhio per lo sguardo di posizione del mondo visivo. Nel processo di convalida, i partecipanti sono presentati con gli stessi punti di destinazione come il processo di calibrazione. La differenza esistente tra la posizione di fissaggio calcolata dai risultati calibrati e la posizione effettiva dell’obiettivo fissato nel mondo visivo vengono quindi utilizzati per giudicare la precisione della calibrazione. Per riconfermare ulteriormente la precisione del processo di mappatura, un assegno di drift è normalmente applicato su ogni prova, dove un bersaglio singolo fissazione è presentato ai partecipanti per misurare la differenza tra la posizione calcolata la fissazione e l’effettiva posizione della destinazione corrente.

I dati primari di uno studio del mondo visivo sono un flusso delle posizioni di sguardo nel mondo visual registrato alla frequenza di campionamento di eye-tracking, che vanno oltre la totalità o parte della durata prova. La variabile dipendente utilizzata in uno studio del mondo visivo è in genere la percentuale di campioni che fissazioni dei partecipanti si trovano a certa regione spaziale del mondo visivo attraverso un certo intervallo di tempo. Per analizzare i dati, una finestra di tempo ha in primo luogo essere selezionati, spesso definito come periodi di interesse. La finestra di tempo è in genere tempo-bloccata alla presentazione di alcuni eventi linguistici nell’input uditivo. Inoltre, inoltre è necessario che il mondo visivo diviso in parecchie regioni di interesse (ROI), ognuno dei quali è associato a uno o più oggetti. Una tale regione contiene l’oggetto corrispondente per la corretta comprensione della lingua parlata e così è spesso chiamato l’area di destinazione. Un tipico modo di visualizzare i dati è un complotto di proporzione di fissazione, dove a ciascuna collocazione in una finestra di tempo, la percentuale di campioni con uno sguardo a ogni area di interesse sono media tra i partecipanti e gli elementi.

Utilizzando i dati ottenuti da uno studio del mondo visivo, ricerca diverse domande possono trovare risposta: un) al livello di grana grossa, sono movimenti oculari dei partecipanti nel mondo visual interessati da diversi input linguistico uditivi? b) se c’è un effetto, che cosa è la traiettoria dell’effetto nel corso del processo? È un effetto lineare o un effetto di ordine elevato? e c) se c’è un effetto, quindi il livello di grana fine, quando è il primo punto temporale dove emerge un tale effetto e quanto dura questo effetto ultimo?

Per analizzare statisticamente i risultati, si devono considerare i seguenti punti. In primo luogo, la variabile di risposta, cioè, le proporzioni delle fissazioni, è sia sotto e sopra delimitata (tra 0 e 1), cui seguirà una distribuzione multinomiale, piuttosto che una distribuzione normale. D’ora in poi, tradizionali metodi statistici basati sulla distribuzione normale come il t-test, ANOVA e modelli lineari (misto-effetto)10, non possono essere direttamente utilizzati fino a quando le proporzioni sono state trasformate a unbounded variabili come ad esempio con formula empirica logit11 o sono stati sostituiti con unbounded variabili dipendenti come distanza euclidea12. Utilizzabile anche tecniche statistiche che non richiedono che l’assunzione di una distribuzione normale tale generalizzato modelli lineari (misto-effetto)13 . In secondo luogo, per esplorare la traiettoria mutevole degli effetti osservati, una variabile che indica il tempo-serie dovrà essere aggiunto al modello. Questa variabile di serie temporali è originariamente il eye-tracker di riallineati all’insorgenza della lingua di input i punti di campionamento. Poiché la traiettoria cambia in genere non è lineare, una funzione polinomiale di ordine superiore della serie tempo normalmente viene aggiunto il () modello lineare generalizzato (misto-effetto), vale a dire, crescita curva analisi14. Inoltre, posizioni dell’occhio dei partecipanti nel punto di campionamento corrente è fortemente dipendente dalle precedenti punti di campionamento, soprattutto quando la frequenza di registrazione è elevata, causando il problema di autocorrelazione. Per ridurre l’autocorrelazione tra i punti di campionamento adiacenti, dati originali sono spesso giù-campionamento o binned. Negli ultimi anni, i modelli effetto misto additivo generalizzato (GAMM) sono stati utilizzati anche per affrontare l’autocorrelazione errori12,15,16. La larghezza dei bidoni varia tra gli studi differenti, che vanno da alcuni millisecondi a diverse centinaia millisecondi. Il bidone più stretto che possibile scegliere uno studio limitato la frequenza di campionamento dell’inseguitore dell’occhio utilizzato nello studio specifico. Ad esempio, se eye tracker ha una frequenza di campionamento di 500 Hz, quindi la larghezza della finestra temporale non può essere minore di 2 ms = 1000/500. In terzo luogo, quando un’analisi statistica più volte viene applicata a ciascuna collocazione di tempo dei periodi di interesse, l’errore familywise indotta da questi che confronti multipli dovrebbero essere affrontati. Come abbiamo descritto in precedenza, l’analisi della traiettoria informa il ricercatore se l’effetto osservato al livello di granularità grossolana è lineare rispetto al cambiamento del tempo, ma non viene visualizzato quando l’effetto osservato comincia ad emergere e come lungo l’osservato effetto dura. Per determinare la posizione temporale quando la differenza osservata inizia a divergere e di capire la durata del periodo temporale che dura l’effetto osservato, un’analisi statistica deve essere applicato ripetutamente per ogni scomparto di tempo. Questi confronti multipli introdurrà il cosiddetto errore familywise, non importa quale metodo statistico è utilizzato. Tradizionalmente viene corretto l’errore familywise con Bonferroni regolazione17. Recentemente, un metodo denominato test non parametrici permutazione originariamente utilizzato in neuroimaging archiviato18 è stato applicato al visual parola paradigma19 al controllo dell’errore familywise.

I ricercatori utilizzando il paradigma del mondo visivo intendono dedurre la comprensione di una lingua parlata da movimenti oculari dei partecipanti nel mondo visivo. Per garantire la validità di questa deduzione, altri fattori che possibilmente influenzano i movimenti dell’occhio dovrebbero essere escluso o controllati. I due fattori seguenti sono tra i comuni che devono essere considerati. Il primo fattore coinvolge alcuni modelli sistematici in fissazioni esplicative dei partecipanti indipendente dalla lingua di input, ad esempio la tendenza a fissare lo sguardo in alto a sinistra quadrat del mondo visivo e muovendo gli occhi in direzione orizzontale, essendo più facile che in direzione verticale, ecc.12,20 per assicurarsi che i modelli osservati fissazione sono relative agli oggetti, non nelle posizioni spaziali dove si trovano gli oggetti, le posizioni spaziali di un oggetto dovrebbero essere controbilanciate in diversi studi clinici o attraverso diversi partecipanti. Il secondo fattore che potrebbe influenzare i movimenti degli occhi dei partecipanti è le caratteristiche di immagine di base degli oggetti del mondo visivo, come orientamento di bordo, il colore e il contrasto di luminanza, tra gli altri21. Per diagnosticare questo potenziale confondimento, la visualizzazione è normalmente presentata prima dell’inizio della lingua parlata o prima dell’inizio dell’indicatore acustico critico della lingua parlata, per circa 1000 ms. durante il periodo temporale dall’inizio della immagine di prova per l’insorgenza dell’audio di prova, la lingua di input o il punto di chiarimento delle ambiguità della lingua di input non è stato ancora ascoltato. Qualsiasi differenza osservata tra diverse condizioni dovrebbe essere dedotto per altri fattori di confusione come il visual display per sé, piuttosto che la lingua di input. D’ora in poi, movimenti oculari osservati in questo periodo di anteprima forniscono una linea di base per determinare l’effetto dell’input linguistico. Questo periodo di anteprima consente inoltre ai partecipanti di familiarizzare con la visualizzazione e per ridurre il bias sistematico delle fissazioni esplicative quando la lingua parlata è presentata.

Per illustrare come si svolge un tipico eye-tracking studio utilizzando il paradigma del mondo visivo, il seguente protocollo descrive un esperimento adattato da L. Zhan17 a esplorare l’elaborazione online di istruzioni semanticamente complesse, vale a dire, istruzioni disgiuntive (S1 o S2), dichiarazioni congiuntive (S1 e S2) e ma-istruzioni (S1 ma non-S2). In conservazione ordinaria, le informazioni espresse da alcune espressioni sono in realtà più forte del suo significato letterale. Disgiuntive dichiarazioni come casella di Xiaoming contiene una mucca o un gallo sono tali espressioni. Logicamente, l’istruzione disgiuntiva è true, purché le due suddivisioni casella di Xiaoming contiene una mucca e casella di Xiaoming contiene un gallo non sono entrambi false. Di conseguenza, l’istruzione disgiuntiva è vero quando le due suddivisioni sono entrambe true, dove l’istruzione congiuntiva corrispondente casella di Xiaoming contiene una mucca e un gallo è anche vero. Nella conversazione ordinaria, tuttavia, sentendo che l’istruzione disgiuntiva spesso suggerisce che la congiuntiva rendiconto è falsa (implicature scalari); e suggerisce che i valori di verità delle due suddivisioni sono sconosciuti all’altoparlante (inferenza di ignoranza). Conti nella letteratura differiscono in se due inferenze siano processi grammaticali o pragmatico22,23,24,25,26. L’esperimento dimostra come il paradigma del mondo visivo può essere utilizzato per giudicare tra questi conti, esplorando l’elaborazione online di tre istruzioni complesse.

Protocol

Tutti i soggetti devono dare consenso informato scritto prima della gestione dei protocolli sperimentali. Tutte le procedure, moduli di consenso e il protocollo sperimentale sono stati approvati dal comitato etico di ricerca di la Beijing Language and Culture University. Nota: Uno studio di comprensione utilizzando il paradigma del mondo visivo normalmente prevede i passaggi seguenti: introdurre i problemi teorici di essere esplorato; Formare un disegno sperimentale; Preparare gli stimoli visi…

Representative Results

Le risposte del comportamento dei partecipanti sono riassunti nella Figura 4. Come abbiamo descritto in precedenza, la risposta corretta a una dichiarazione congiunta (S1 e S2) è la grande scatola aperta, ad esempio Box A nella Figura 1. La risposta corretta a una ma-istruzione (S1 ma non S2) è la piccola scatola aperta contenente il primo animale accennato, come casella D nella F…

Discussion

Per condurre uno studio di mondo visivo, ci sono diversi passaggi critici da seguire. In primo luogo, i ricercatori intendono dedurre l’interpretazione del linguaggio uditivamente presentato tramite movimenti oculari dei partecipanti nel mondo visivo. D’ora in poi, nella progettazione del layout di stimoli visivi, le proprietà dei movimenti oculari in un’attività naturale che potenzialmente influenzano movimenti oculari dei partecipanti dovrebbero essere controllate. L’effetto della lingua parlata sui movimenti di occh…

Divulgazioni

The authors have nothing to disclose.

Acknowledgements

Questa ricerca è stata sostenuta da Science Foundation di Beijing Language and Cultural University nell’ambito dei fondi di ricerca fondamentali per le Università centrale (approvazione numero 15YJ050003).

Materials

Pixelmator Pixelmator Team http://www.pixelmator.com/pro/ image editing app
Praat Open Sourse http://www.fon.hum.uva.nl/praat/ Sound analyses and editting software
Eyelink 1000plus SR-Research, Inc https://www.sr-research.com/products/eyelink-1000-plus/ remote infrared eye tracker 
Experimental Builder SR-Research, Inc https://www.sr-research.com/experiment-builder/ eye tracker software 
Data Viewer SR-Research, Inc https://www.sr-research.com/data-viewer/ eye tracker software 
R Open Sourse https://www.r-project.org free software environment for statistical computing and graphics

Riferimenti

  1. Tanenhaus, M. K., Spivey-Knowlton, M. J., Eberhard, K. M., Sedivy, J. C. Integration of visual and linguistic information in spoken language comprehension. Science. 268 (5217), 1632-1634 (1995).
  2. Cooper, R. M. The control of eye fixation by the meaning of spoken language: A new methodology for the real-time investigation of speech perception, memory, and language processing. Cognitive Psychology. 6 (1), 84-107 (1974).
  3. Salverda, A. P., Tanenhaus, M. K., de Groot, A. M. B., Hagoort, P. . Research methods in psycholinguistics and the neurobiology of language: A practical guide. , (2017).
  4. Huettig, F., Rommers, J., Meyer, A. S. Using the visual world paradigm to study language processing: A review and critical evaluation. Acta Psychologica. 137 (2), 151-171 (2011).
  5. Meyer, A. S., Sleiderink, A. M., Levelt, W. J. M. Viewing and naming objects: Eye movements during noun phrase production. Cognition. 66 (2), B25-B33 (1998).
  6. Griffin, Z. M., Bock, K. What the eyes say about speaking. Psychological Science. 11 (4), 274-279 (2000).
  7. Young, L. R., Sheena, D. Survey of eye movement recording methods. Behavior Research Methods & Instrumentation. 7 (5), 397-429 (1975).
  8. Conklin, K., Pellicer-Sánchez, A., Carrol, G. . Eye-tracking: A guide for applied linguistics research. , (2018).
  9. Duchowski, A. . Eye tracking methodology: Theory and practice. , (2007).
  10. Baayen, R. H., Davidson, D. J., Bates, D. M. Mixed-effects modeling with crossed random effects for subjects and items. Journal of Memory and Language. 59 (4), 390-412 (2008).
  11. Barr, D. J. Analyzing ‘visual world’ eyetracking data using multilevel logistic regression. Journal of Memory and Language. 59 (4), 457-474 (2008).
  12. Nixon, J. S., van Rij, J., Mok, P., Baayen, R. H., Chen, Y. The temporal dynamics of perceptual uncertainty: eye movement evidence from Cantonese segment and tone perception. Journal of Memory and Language. 90, 103-125 (2016).
  13. Bolker, B. M., et al. Generalized linear mixed models: A practical guide for ecology and evolution. Trends in Ecology and Evolution. 24 (3), 127-135 (2009).
  14. Mirman, D., Dixon, J. A., Magnuson, J. S. Statistical and computational models of the visual world paradigm: Growth curves and individual differences. Journal of Memory and Language. 59 (4), 475-494 (2008).
  15. Baayen, H., Vasishth, S., Kliegl, R., Bates, D. The cave of shadows: Addressing the human factor with generalized additive mixed models. Journal of Memory and Language. 94, 206-234 (2017).
  16. Baayen, R. H., van Rij, J., de Cat, C., Wood, S., Speelman, D., Heylen, K., Geeraerts, D. . Mixed-Effects Regression Models in Linguistics. 4, 49-69 (2018).
  17. Zhan, L. Scalar and ignorance inferences are both computed immediately upon encountering the sentential connective: The online processing of sentences with disjunction using the visual world paradigm. Frontiers in Psychology. 9, (2018).
  18. Maris, E., Oostenveld, R. Nonparametric statistical testing of EEG- and MEG-data. Journal of Neuroscience Methods. 164 (1), 177-190 (2007).
  19. Barr, D. J., Jackson, L., Phillips, I. Using a voice to put a name to a face: The psycholinguistics of proper name comprehension. Journal of Experimental Psychology-General. 143 (1), 404-413 (2014).
  20. Dahan, D., Tanenhaus, M. K., Salverda, A. P., van Gompel, R. P. G., Fischer, M. H., Murray, W. S., Hill, R. L. . Eye movements: A window on mind and brain. , 471-486 (2007).
  21. Parkhurst, D., Law, K., Niebur, E. Modeling the role of salience in the allocation of overt visual attention. Vision Research. 42 (1), 107-123 (2002).
  22. Grice, H. P., Cole, P., Morgan, J. L. Vol. 3 Speech Acts. Syntax and semantics. , 41-58 (1975).
  23. Sauerland, U. Scalar implicatures in complex sentences. Linguistics and Philosophy. 27 (3), 367-391 (2004).
  24. Chierchia, G. Scalar implicatures and their interface with grammar. Annual Review of Linguistics. 3 (1), 245-264 (2017).
  25. Fox, D., Sauerland, U., Stateva, P. . Presupposition and Implicature in Compositional Semantics. , 71-120 (2007).
  26. Meyer, M. C. . Ignorance and grammar. , (2013).
  27. SR Research Ltd. . SR Research Experiment Builder User Manual (Version 2.1.140). , (2017).
  28. SR Research Ltd. . EyeLink® 1000 Plus Technical Specifications. , (2017).
  29. SR Research Ltd. . EyeLink-1000-Plus-Brochure. , (2017).
  30. SR Research Ltd. . EyeLink® 1000 Plus User Manual (Version 1.0.12). , (2017).
  31. SR Research Ltd. . EyeLink® Data Viewer User’s Manual (Version 3.1.97). , (2017).
  32. McQueen, J. M., Viebahn, M. C. Tracking recognition of spoken words by tracking looks to printed words. The Quarterly Journal of Experimental Psychology. 60 (5), 661-671 (2007).
  33. Altmann, G. T. M., Kamide, Y. Incremental interpretation at verbs: restricting the domain of subsequent reference. Cognition. 73 (3), 247-264 (1999).
  34. Altmann, G. T. M., Kamide, Y. The real-time mediation of visual attention by language and world knowledge: Linking anticipatory (and other) eye movements to linguistic processing. Journal of Memory and Language. 57 (4), 502-518 (2007).
  35. Snedeker, J., Trueswell, J. C. The developing constraints on parsing decisions: The role of lexical-biases and referential scenes in child and adult sentence processing. Cognitive Psychology. 49 (3), 238-299 (2004).
  36. Allopenna, P. D., Magnuson, J. S., Tanenhaus, M. K. Tracking the time course of spoken word recognition using eye movements: Evidence for continuous mapping models. Journal of Memory and Language. 38 (4), 419-439 (1998).
  37. Zhan, L., Crain, S., Zhou, P. The online processing of only if and even if conditional statements: Implications for mental models. Journal of Cognitive Psychology. 27 (3), 367-379 (2015).
  38. Zhan, L., Zhou, P., Crain, S. Using the visual-world paradigm to explore the meaning of conditionals in natural language. Language, Cognition and Neuroscience. 33 (8), 1049-1062 (2018).
  39. Brown-Schmidt, S., Tanenhaus, M. K. Real-time investigation of referential domains in unscripted conversation: A targeted language game approach. Cognitive Science. 32 (4), 643-684 (2008).
  40. Fernald, A., Pinto, J. P., Swingley, D., Weinberg, A., McRoberts, G. W. Rapid gains in speed of verbal processing by infants in the 2nd year. Psychological Science. 9 (3), 228-231 (1998).
  41. Trueswell, J. C., Sekerina, I., Hill, N. M., Logrip, M. L. The kindergarten-path effect: studying on-line sentence processing in young children. Cognition. 73 (2), 89-134 (1999).
  42. Zhou, P., Su, Y., Crain, S., Gao, L. Q., Zhan, L. Children’s use of phonological information in ambiguity resolution: a view from Mandarin Chinese. Journal of Child Language. 39 (4), 687-730 (2012).
  43. Zhou, P., Crain, S., Zhan, L. Grammatical aspect and event recognition in children’s online sentence comprehension. Cognition. 133 (1), 262-276 (2014).
  44. Zhou, P., Crain, S., Zhan, L. Sometimes children are as good as adults: The pragmatic use of prosody in children’s on-line sentence processing. Journal of Memory and Language. 67 (1), 149-164 (2012).
  45. Moscati, V., Zhan, L., Zhou, P. Children’s on-line processing of epistemic modals. Journal of Child Language. 44 (5), 1025-1040 (2017).
  46. Helfer, K. S., Staub, A. Competing speech perception in older and younger adults: Behavioral and eye-movement evidence. Ear and Hearing. 35 (2), 161-170 (2014).
  47. Dickey, M. W., Choy, J. W. J., Thompson, C. K. Real-time comprehension of wh-movement in aphasia: Evidence from eyetracking while listening. Brain and Language. 100 (1), 1-22 (2007).
  48. Magnuson, J. S., Nusbaum, H. C. Acoustic differences, listener expectations, and the perceptual accommodation of talker variability. Journal of Experimental Psychology-Human Perception and Performance. 33 (2), 391-409 (2007).
  49. Reinisch, E., Jesse, A., McQueen, J. M. Early use of phonetic information in spoken word recognition: Lexical stress drives eye movements immediately. Quarterly Journal of Experimental Psychology. 63 (4), 772-783 (2010).
  50. Chambers, C. G., Tanenhaus, M. K., Magnuson, J. S. Actions and affordances in syntactic ambiguity resolution. Journal of Experimental Psychology-Learning Memory and Cognition. 30 (3), 687-696 (2004).
  51. Tanenhaus, M. K., Trueswell, J. C., Trueswell, J. C., Tanenhaus, M. K. . Approaches to Studying World-Situated Language Use: Bridging the Language-as-Product and Language-as-Action Traditions. , (2005).
check_url/it/58086?article_type=t

Play Video

Citazione di questo articolo
Zhan, L. Using Eye Movements Recorded in the Visual World Paradigm to Explore the Online Processing of Spoken Language. J. Vis. Exp. (140), e58086, doi:10.3791/58086 (2018).

View Video