Summary

Utilizar movimientos oculares registrados en el paradigma de mundo Visual para explorar el procesamiento en línea del lenguaje hablado

Published: October 13, 2018
doi:

Summary

El paradigma de mundo visual controla movimientos oculares de los participantes en el espacio de trabajo visual que están escuchando o hablando una lengua hablada. Este paradigma puede utilizarse para investigar el procesamiento en línea de una amplia gama de preguntas psicolingüísticas, incluyendo instrucciones semánticamente complejas, como disyuntiva.

Abstract

En un ojo típico utilizando el paradigma de mundo visual estudio de seguimiento, los participantes ojo movimientos a los objetos o imágenes en el espacio de trabajo visual se registran por medio de un rastreador de ojos como el participante produce o comprende una lengua hablada describiendo el visual simultánea mundo. Este paradigma tiene gran versatilidad, que puede ser utilizado en una amplia gama de poblaciones, los que no pueden leer o que no dan abiertamente sus respuestas conductuales, tales como preliterate niños, adultos mayores y pacientes incluidos. Lo más importante, el paradigma es extremadamente sensible a manipulaciones de la señal de discurso de grano fino, y puede ser utilizado para estudiar el procesamiento en línea de la mayoría de los temas en la comprensión del lenguaje en múltiples niveles, como el grano fino acústica fonética características, las propiedades de las palabras y las estructuras lingüísticas. El protocolo descrito en este artículo ilustra cómo un ojo típico mundo visual estudio de seguimiento se lleva a cabo, con un ejemplo que muestra cómo el procesamiento en línea de algunas declaraciones semánticamente complejos puede ser explorado con el paradigma de mundo visual.

Introduction

Lengua hablada es un flujo de información rápido y continuo, que desaparece enseguida. Es un reto estudiar experimentalmente este temporal, cambiar rápidamente la señal de discurso. Movimientos oculares registrados en el paradigma de mundo visual se pueden utilizar para superar este desafío. En un ojo típico seguimiento estudio utilizando el paradigma de mundo visual, movimientos oculares de los participantes a los cuadros en una exhibición o a objetos reales en un espacio de trabajo visual se controlan como escucha, o produce, lengua hablada que representa el contenido del mundo visual1 ,2,3,4. La lógica básica, o la hipótesis de vinculación, detrás de este paradigma es que comprender o planificación de una elocución (abiertamente o secretamente) cambiarán la atención visual de los participantes hacia un cierto objeto del mundo visual. Este cambio de atención tendrá una alta probabilidad de iniciar un movimiento de ojo sacádicos para incorporar el área asistió a la visión foveal. Con este paradigma, los investigadores pretenden determinar en qué momento temporal, con respecto a alguna señal acústica en fonía, se produce un cambio en la atención visual del participante, según lo medido por un movimiento de ojo sacádicos a un objeto o una imagen en visual mundo. Cuándo y dónde se inician movimientos de ojo sacádicos en relación con la señal de voz se utilizan para deducir el procesamiento del lenguaje en línea. El paradigma del mundo visual se puede utilizar para estudiar el lenguaje hablado comprensión1,2 y producción5,6. Este artículo metodológico se centrará en los estudios de comprensión. En un estudio de comprensión utilizando el paradigma de mundo visual, ojo los participantes vigilan movimientos en la pantalla visual mientras escuchan las elocuciones habladas hablando sobre la presentación visual.

Sistemas de seguimiento de ojo diferentes han sido diseñados en la historia. El más simple, menos costoso y más portátil el sistema es sólo es una normal de la cámara de video, que registra una imagen de los ojos del participante. Movimientos de los ojos luego se codifican manualmente a través del examen de fotograma a fotograma de la grabación de vídeo. Sin embargo, la tasa de muestreo de tal un eye-tracker es relativamente baja, y el procedimiento de codificación es desperdiciador de tiempo. Así, un ojo comercial contemporáneo sistema de seguimiento normalmente utiliza sensores ópticos miden la orientación del ojo en su órbita7,8,9. Para entender cómo funciona un sistema de seguimiento de ojo comercial contemporáneo, se deben considerar los siguientes puntos. Primero, para medir correctamente la dirección de la visión foveal, un iluminador infrarrojo (normalmente con la longitud de onda alrededor 780-880 nm) normalmente se coloca a lo largo o apagar el eje óptico de la cámara, haciendo la imagen de la pupila distinguible más brillante o más oscuro que del iris circundante. La imagen de la pupila o de la reflexión corneal de la pupila (normalmente la primera imagen de Purkinje) entonces se utiliza para calcular la orientación del ojo en su órbita. En segundo lugar, la ubicación de la mirada en el mundo visual es en realidad contingente no sólo en la orientación del ojo con respecto a la cabeza sino también en la orientación principal en relación con el mundo visual. Para deducir con exactitud la mirada del sentido de la orientación del ojo, la fuente de luz y la cámara de los eye-trackers son fijos con respecto a la cabeza de los participantes (montado en la cabeza eye-trackers) o son fijos en relación con el mundo visual (montada en mesa o ojo remotos-trackers). En tercer lugar, orientación principal de los participantes debe fijarse bien en relación con el mundo visual o cómputo compensarse si la cabeza de los participantes es libre para moverse. Cuando se utiliza un eye-tracker remoto en forma de cabeza-libre-a-move, posición de la cabeza los participantes normalmente se registra colocando una pegatina pequeña en frente de los participantes. La orientación principal de cómputo entonces se resta de la orientación del ojo para recuperar la ubicación de la mirada en el mundo visual. En cuarto lugar, una calibración y un proceso de validación se requieren entonces para asignar la orientación del ojo a la mirada de respeto en el mundo visual. En el proceso de calibración, muestras de la fijación de los participantes desde los puntos de destino conocido se registran para los datos crudos ojos para contemplar la posición en el mundo visual. En el proceso de validación, los participantes se presentan con los mismos puntos de destino como el proceso de calibración. La diferencia existente entre la posición computada la fijación de los resultados calibrados y la posición real del objetivo determinada en el mundo visual se utilizan para juzgar la exactitud de la calibración. Para confirmar aún más la precisión del proceso de asignación, un control de deriva se aplica normalmente en cada ensayo, donde un objetivo de fijación solo se presenta a los participantes para medir la diferencia entre la posición computada la fijación y la posición real de la objetivo actual.

Los datos primarios de un estudio de mundo visual están una secuencia de localizaciones de la mirada en el mundo visual en la frecuencia de muestreo de la eye-tracker, que se extienden sobre la totalidad o parte de la duración del ensayo. La variable dependiente utilizada en el estudio de un mundo visual es típicamente la proporción de muestras que fijaciones de los participantes se encuentran en cierta región espacial en el mundo visual a través de un cierto intervalo de tiempo. Para analizar los datos, una ventana de tiempo tiene en primer lugar ser seleccionado, refiere a menudo como períodos de interés. La ventana de tiempo es generalmente tiempo-bloqueada a la presentación de algunos eventos lingüísticos en la entrada auditiva. Además, el mundo visual también es necesario dividir en varias regiones de interés (ROIs), cada una de ellas está asociada a uno o más objetos. Una de estas regiones contiene el objeto correspondiente a la correcta comprensión de la lengua hablada y así se denomina la zona de destino. Una manera típica para visualizar los datos es un complot de parte de la fijación, donde en cada compartimiento en una ventana de tiempo, la proporción de muestras con una mirada a cada región de interés son un promedio de los participantes y elementos.

¿Utilizando los datos obtenidos de un estudio de mundo visual, se pueden contestar preguntas de investigación diferentes: a) en el nivel de grano grueso, son movimientos del ojo de los participantes en el mundo visual afectados por la entrada lingüística auditiva diferente? b) si hay un efecto, ¿cuál es la trayectoria del efecto en el transcurso del juicio? ¿Es un efecto lineal o efecto de orden superior? y c) si hay un efecto, entonces en el nivel de grano fino, cuando es el primer punto temporal donde surge ese efecto y este efecto ¿cuánto pasado?

Para analizar estadísticamente los resultados, se deben considerar los siguientes puntos. En primer lugar, la variable de respuesta, es decir, proporciones de las fijaciones, tanto abajo como arriba limita (entre 0 y 1), que seguirá una distribución multinomial, en lugar de una distribución normal. En adelante, métodos estadísticos tradicionales basados en la distribución normal como el t-test, ANOVA y modelos lineales (efecto de mezcla)10, no pueden directamente utilizar hasta las proporciones han sido transformadas a variables ilimitadas con fórmula empírica logit11 o han sido reemplazados con ilimitada dependiente de variables como la distancia euclidiana12. También pueden utilizar técnicas estadísticas que no requieran que la asunción de la distribución normal tal generalizada modelos lineales (efecto de mezcla)13 . En segundo lugar, para explorar la trayectoria cambiante del efecto observado, una variable que denota la serie de tiempo tiene que ser añadido en el modelo. Esta variable de series de tiempo es el eye-tracker de muestreo puntos realineados a la aparición de la lengua de la entrada. Puesto que la trayectoria cambiante suele ser no lineal, una función polinómica de orden superior de la serie de tiempo se agrega normalmente en el () modelo lineal generalizado (efecto de mezcla), es decir, de análisis de curva de crecimiento14. Además, posiciones del ojo de los participantes en el punto de muestreo es altamente dependiente de puntos de muestreo anterior, especialmente cuando la frecuencia de grabación es alta, lo que resulta en el problema de la autocorrelación. Para reducir la autocorrelación entre los puntos de muestreo adyacentes, datos originales son a menudo abajo-muestreado o desechado. En los últimos años, los modelos de efecto mixto aditivo generalizado (GAMM) han utilizado también para hacer frente a los errores de autocorrelated12,15,16. El ancho de contenedores varía entre diversos estudios, que van desde varios milisegundos a varias centenas de milisegundos. El recipiente más estrecho que puede elegir un estudio está limitado por la frecuencia de muestreo del rastreador ocular utilizado en el estudio específico. Por ejemplo, si un perseguidor del ojo tiene una frecuencia de muestreo de 500 Hz, entonces el ancho de la ventana de tiempo no puede ser menor que 2 ms = 1000/500. En tercer lugar, cuando un análisis estadístico se aplica repetidamente a cada compartimiento de tiempo de los períodos de interés, el error del familywise inducida de éstos que deben acometerse las comparaciones múltiples. Como hemos descrito anteriormente, el análisis de trayectoria informa el investigador si el efecto observado en el nivel de grano grueso es lineal con respecto a los cambios del tiempo, pero no se presenta cuando el efecto observado comienza a surgir y cómo durante mucho tiempo observado efecto dura. Para determinar la posición temporal cuando la diferencia observada comienza a divergir y averiguar la duración del periodo temporal que dura el efecto observado, un análisis de la estadística debe ser aplicada repetidamente para cada compartimiento de tiempo. Estas comparaciones múltiples introducirá el supuesto error familywise, sin importar se utiliza qué método estadístico. Tradicionalmente se corrige el error del familywise con ajuste de Bonferroni17. Recientemente, se ha aplicado un método denominado prueba de permutación no paramétrico utilizado originalmente en Neuroimagen presentada18 a la palabra visual paradigma19 para controlar el error del familywise.

Los investigadores utilizando el paradigma de mundo visual pretenden inferir la comprensión de alguna lengua hablada de los movimientos de ojo de los participantes en el mundo visual. Para asegurar la validez de esta deducción, otros factores que posiblemente influyen en los movimientos del ojo deben descartar o controlar. Los siguientes dos factores están entre los más comunes que deben ser considerados. El primer factor involucra algunos patrones sistemáticos en fijaciones explicativo de los participantes independientemente de la lengua de entrada, como la tendencia a fijar en la parte superior izquierda quadrat del mundo visual y los ojos móviles en la dirección horizontal es más fácil que en la dirección vertical, etc.12,20 para asegurarse de que los patrones de fijación observada se relacionan con los objetos, no a las ubicaciones espaciales donde están situados los objetos, las posiciones espaciales de un objeto deben ser contrapesadas a través de diferentes ensayos o a través de los diferentes participantes. El segundo factor que pudiera influir en los movimientos de ojo de los participantes es las características básicas de imágenes de los objetos del mundo visual, como orientación de contraste, color y borde la luminancia, entre otros21. Para diagnosticar esta potencial confusión, la presentación visual normalmente se presenta antes del inicio de la lengua hablada o antes de la aparición del marcador acústico crítico de la lengua hablada, para cerca de 1000 Sra. durante el período temporal del inicio de la imagen de prueba para el inicio del prueba de audio, el idioma de entrada o el punto de desambiguación de la lengua de entrada no se ha escuchado todavía. Cualquier diferencia observada entre diferentes condiciones debe deducirse a otros factores de confusión tales como la exhibición visual propiamente, más que el idioma de entrada. En adelante, observados en este período de escuchar los movimientos de ojo proporcionan una base para determinar el efecto de la entrada lingüística. Este período de escuchar también permite a los participantes a familiarizarse con la representación visual y a reducir el sesgo sistemático de las fijaciones explicativos cuando se presenta la lengua hablada.

Para ilustrar cómo se realiza un ojo típico seguimiento estudio utilizando el paradigma de mundo visual, el siguiente protocolo describe un experimento adaptado de L. Zhan17 para explorar el procesamiento en línea de instrucciones complejas semánticamente, es decir, declaraciones disyuntivas (S1 o S2), declaraciones de conjuntivas (S1 y S2) y-declaraciones (S1 pero no-S2). En la conservación ordinaria, la información expresada por algunas expresiones es realmente más fuerte que su significado literal. Disyuntiva como caja de Xiaoming contiene una vaca o un gallo son tales declaraciones. Lógicamente, la declaración disyuntiva es cierto como los dos disjuncts caja de Xiaoming contiene una vaca y caja de Xiaoming contiene un gallo no son ambos falsos. Por lo tanto, lo disyuntivo es verdadero cuando los dos disjuncts son ambos verdaderos, donde la instrucción conjunta correspondiente caja de Xiaoming contiene una vaca y un gallo también es cierto. En ordinaria conversación, sin embargo, la audiencia que la declaración disyuntiva a menudo sugiere que la instrucción conjunta correspondiente es falsa (Implicatura escalar); y sugiere que los valores de verdad de los dos disjuncts son desconocidos por el altavoz (inferencia de ignorancia). Cuentas en la literatura difieren en si los dos inferencias son procesos gramaticales o pragmáticas22,23,24,25,26. El experimento muestra cómo el paradigma del mundo visual se puede utilizar para adjudicar entre estas cuentas, al explorar el procesamiento en línea de tres instrucciones complejas.

Protocol

Todos los temas deben dar consentimiento informado por escrito antes de la administración de los protocolos experimentales. El protocolo experimental, todos los procedimientos y formas de consentimiento fueron aprobados por el Comité de ética de investigación de la Beijing Universidad de lengua y cultura. Nota: Un estudio de comprensión utilizando el paradigma de mundo visual normalmente consta de los siguientes pasos: introducir los problemas teóricos a ser explorada; Formar un diseño …

Representative Results

Respuestas conductuales de los participantes se resumen en la figura 4. Como hemos descrito anteriormente, la respuesta correcta de una declaración conjunta (S1 y S2) es la gran caja abierta, como un cuadro en la figura 1. La respuesta correcta a un pero-declaración (S1 pero no S2) es la pequeña caja abierta que contiene el primer animal citado, como la caja de D en la figura 1</…

Discussion

Para llevar a cabo un estudio de mundo visual, hay varios pasos importantes a seguir. En primer lugar, los investigadores pretenden deducir la interpretación de la lengua presentada auditorily mediante movimientos oculares de los participantes en el mundo visual. En adelante, en el diseño de la disposición de los estímulos visuales, deben controlarse las propiedades de los movimientos del ojo en una tarea de natural que potencialmente afectan los movimientos de ojo de los participantes. Entonces se puede reconocer el…

Disclosures

The authors have nothing to disclose.

Acknowledgements

Esta investigación fue apoyada por Ciencia Fundación de Beijing Universidad de lengua y cultura en los fondos de Investigación Fundamental para las universidades Central (autorización número 15YJ050003).

Materials

Pixelmator Pixelmator Team http://www.pixelmator.com/pro/ image editing app
Praat Open Sourse http://www.fon.hum.uva.nl/praat/ Sound analyses and editting software
Eyelink 1000plus SR-Research, Inc https://www.sr-research.com/products/eyelink-1000-plus/ remote infrared eye tracker 
Experimental Builder SR-Research, Inc https://www.sr-research.com/experiment-builder/ eye tracker software 
Data Viewer SR-Research, Inc https://www.sr-research.com/data-viewer/ eye tracker software 
R Open Sourse https://www.r-project.org free software environment for statistical computing and graphics

References

  1. Tanenhaus, M. K., Spivey-Knowlton, M. J., Eberhard, K. M., Sedivy, J. C. Integration of visual and linguistic information in spoken language comprehension. Science. 268 (5217), 1632-1634 (1995).
  2. Cooper, R. M. The control of eye fixation by the meaning of spoken language: A new methodology for the real-time investigation of speech perception, memory, and language processing. Cognitive Psychology. 6 (1), 84-107 (1974).
  3. Salverda, A. P., Tanenhaus, M. K., de Groot, A. M. B., Hagoort, P. . Research methods in psycholinguistics and the neurobiology of language: A practical guide. , (2017).
  4. Huettig, F., Rommers, J., Meyer, A. S. Using the visual world paradigm to study language processing: A review and critical evaluation. Acta Psychologica. 137 (2), 151-171 (2011).
  5. Meyer, A. S., Sleiderink, A. M., Levelt, W. J. M. Viewing and naming objects: Eye movements during noun phrase production. Cognition. 66 (2), B25-B33 (1998).
  6. Griffin, Z. M., Bock, K. What the eyes say about speaking. Psychological Science. 11 (4), 274-279 (2000).
  7. Young, L. R., Sheena, D. Survey of eye movement recording methods. Behavior Research Methods & Instrumentation. 7 (5), 397-429 (1975).
  8. Conklin, K., Pellicer-Sánchez, A., Carrol, G. . Eye-tracking: A guide for applied linguistics research. , (2018).
  9. Duchowski, A. . Eye tracking methodology: Theory and practice. , (2007).
  10. Baayen, R. H., Davidson, D. J., Bates, D. M. Mixed-effects modeling with crossed random effects for subjects and items. Journal of Memory and Language. 59 (4), 390-412 (2008).
  11. Barr, D. J. Analyzing ‘visual world’ eyetracking data using multilevel logistic regression. Journal of Memory and Language. 59 (4), 457-474 (2008).
  12. Nixon, J. S., van Rij, J., Mok, P., Baayen, R. H., Chen, Y. The temporal dynamics of perceptual uncertainty: eye movement evidence from Cantonese segment and tone perception. Journal of Memory and Language. 90, 103-125 (2016).
  13. Bolker, B. M., et al. Generalized linear mixed models: A practical guide for ecology and evolution. Trends in Ecology and Evolution. 24 (3), 127-135 (2009).
  14. Mirman, D., Dixon, J. A., Magnuson, J. S. Statistical and computational models of the visual world paradigm: Growth curves and individual differences. Journal of Memory and Language. 59 (4), 475-494 (2008).
  15. Baayen, H., Vasishth, S., Kliegl, R., Bates, D. The cave of shadows: Addressing the human factor with generalized additive mixed models. Journal of Memory and Language. 94, 206-234 (2017).
  16. Baayen, R. H., van Rij, J., de Cat, C., Wood, S., Speelman, D., Heylen, K., Geeraerts, D. . Mixed-Effects Regression Models in Linguistics. 4, 49-69 (2018).
  17. Zhan, L. Scalar and ignorance inferences are both computed immediately upon encountering the sentential connective: The online processing of sentences with disjunction using the visual world paradigm. Frontiers in Psychology. 9, (2018).
  18. Maris, E., Oostenveld, R. Nonparametric statistical testing of EEG- and MEG-data. Journal of Neuroscience Methods. 164 (1), 177-190 (2007).
  19. Barr, D. J., Jackson, L., Phillips, I. Using a voice to put a name to a face: The psycholinguistics of proper name comprehension. Journal of Experimental Psychology-General. 143 (1), 404-413 (2014).
  20. Dahan, D., Tanenhaus, M. K., Salverda, A. P., van Gompel, R. P. G., Fischer, M. H., Murray, W. S., Hill, R. L. . Eye movements: A window on mind and brain. , 471-486 (2007).
  21. Parkhurst, D., Law, K., Niebur, E. Modeling the role of salience in the allocation of overt visual attention. Vision Research. 42 (1), 107-123 (2002).
  22. Grice, H. P., Cole, P., Morgan, J. L. Vol. 3 Speech Acts. Syntax and semantics. , 41-58 (1975).
  23. Sauerland, U. Scalar implicatures in complex sentences. Linguistics and Philosophy. 27 (3), 367-391 (2004).
  24. Chierchia, G. Scalar implicatures and their interface with grammar. Annual Review of Linguistics. 3 (1), 245-264 (2017).
  25. Fox, D., Sauerland, U., Stateva, P. . Presupposition and Implicature in Compositional Semantics. , 71-120 (2007).
  26. Meyer, M. C. . Ignorance and grammar. , (2013).
  27. SR Research Ltd. . SR Research Experiment Builder User Manual (Version 2.1.140). , (2017).
  28. SR Research Ltd. . EyeLink® 1000 Plus Technical Specifications. , (2017).
  29. SR Research Ltd. . EyeLink-1000-Plus-Brochure. , (2017).
  30. SR Research Ltd. . EyeLink® 1000 Plus User Manual (Version 1.0.12). , (2017).
  31. SR Research Ltd. . EyeLink® Data Viewer User’s Manual (Version 3.1.97). , (2017).
  32. McQueen, J. M., Viebahn, M. C. Tracking recognition of spoken words by tracking looks to printed words. The Quarterly Journal of Experimental Psychology. 60 (5), 661-671 (2007).
  33. Altmann, G. T. M., Kamide, Y. Incremental interpretation at verbs: restricting the domain of subsequent reference. Cognition. 73 (3), 247-264 (1999).
  34. Altmann, G. T. M., Kamide, Y. The real-time mediation of visual attention by language and world knowledge: Linking anticipatory (and other) eye movements to linguistic processing. Journal of Memory and Language. 57 (4), 502-518 (2007).
  35. Snedeker, J., Trueswell, J. C. The developing constraints on parsing decisions: The role of lexical-biases and referential scenes in child and adult sentence processing. Cognitive Psychology. 49 (3), 238-299 (2004).
  36. Allopenna, P. D., Magnuson, J. S., Tanenhaus, M. K. Tracking the time course of spoken word recognition using eye movements: Evidence for continuous mapping models. Journal of Memory and Language. 38 (4), 419-439 (1998).
  37. Zhan, L., Crain, S., Zhou, P. The online processing of only if and even if conditional statements: Implications for mental models. Journal of Cognitive Psychology. 27 (3), 367-379 (2015).
  38. Zhan, L., Zhou, P., Crain, S. Using the visual-world paradigm to explore the meaning of conditionals in natural language. Language, Cognition and Neuroscience. 33 (8), 1049-1062 (2018).
  39. Brown-Schmidt, S., Tanenhaus, M. K. Real-time investigation of referential domains in unscripted conversation: A targeted language game approach. Cognitive Science. 32 (4), 643-684 (2008).
  40. Fernald, A., Pinto, J. P., Swingley, D., Weinberg, A., McRoberts, G. W. Rapid gains in speed of verbal processing by infants in the 2nd year. Psychological Science. 9 (3), 228-231 (1998).
  41. Trueswell, J. C., Sekerina, I., Hill, N. M., Logrip, M. L. The kindergarten-path effect: studying on-line sentence processing in young children. Cognition. 73 (2), 89-134 (1999).
  42. Zhou, P., Su, Y., Crain, S., Gao, L. Q., Zhan, L. Children’s use of phonological information in ambiguity resolution: a view from Mandarin Chinese. Journal of Child Language. 39 (4), 687-730 (2012).
  43. Zhou, P., Crain, S., Zhan, L. Grammatical aspect and event recognition in children’s online sentence comprehension. Cognition. 133 (1), 262-276 (2014).
  44. Zhou, P., Crain, S., Zhan, L. Sometimes children are as good as adults: The pragmatic use of prosody in children’s on-line sentence processing. Journal of Memory and Language. 67 (1), 149-164 (2012).
  45. Moscati, V., Zhan, L., Zhou, P. Children’s on-line processing of epistemic modals. Journal of Child Language. 44 (5), 1025-1040 (2017).
  46. Helfer, K. S., Staub, A. Competing speech perception in older and younger adults: Behavioral and eye-movement evidence. Ear and Hearing. 35 (2), 161-170 (2014).
  47. Dickey, M. W., Choy, J. W. J., Thompson, C. K. Real-time comprehension of wh-movement in aphasia: Evidence from eyetracking while listening. Brain and Language. 100 (1), 1-22 (2007).
  48. Magnuson, J. S., Nusbaum, H. C. Acoustic differences, listener expectations, and the perceptual accommodation of talker variability. Journal of Experimental Psychology-Human Perception and Performance. 33 (2), 391-409 (2007).
  49. Reinisch, E., Jesse, A., McQueen, J. M. Early use of phonetic information in spoken word recognition: Lexical stress drives eye movements immediately. Quarterly Journal of Experimental Psychology. 63 (4), 772-783 (2010).
  50. Chambers, C. G., Tanenhaus, M. K., Magnuson, J. S. Actions and affordances in syntactic ambiguity resolution. Journal of Experimental Psychology-Learning Memory and Cognition. 30 (3), 687-696 (2004).
  51. Tanenhaus, M. K., Trueswell, J. C., Trueswell, J. C., Tanenhaus, M. K. . Approaches to Studying World-Situated Language Use: Bridging the Language-as-Product and Language-as-Action Traditions. , (2005).

Play Video

Cite This Article
Zhan, L. Using Eye Movements Recorded in the Visual World Paradigm to Explore the Online Processing of Spoken Language. J. Vis. Exp. (140), e58086, doi:10.3791/58086 (2018).

View Video