Summary

Ved hjælp af øjenbevægelser registreres i den visuelle verden paradigme at udforske Online behandling af talesprog

Published: October 13, 2018
doi:

Summary

Den visuelle verden paradigme overvåger deltagernes øjenbevægelser i arbejdsområdet visuelle de lytte til eller tale et talesprog. Dette paradigme kan bruges til at undersøge online behandling af en bred vifte af psycholinguistic spørgsmål, herunder semantisk komplekse erklæringer, såsom disjunktiv erklæringer.

Abstract

I en typisk eyetracking undersøgelse ved hjælp af visuelle verden paradigme, deltagernes øje bevægelser til objekter eller billeder i arbejdsområdet visuelle registreres via en øje tracker, som deltageren producerer eller begriber et sprog der beskriver den samtidige visuelle verden. Dette paradigme har høje alsidighed, så det kan bruges i en bred vifte af befolkningsgrupper, herunder dem, der ikke kan læse og/eller der åbenlyst ikke kan give deres adfærdsmæssige reaktioner, som preliterate børn, ældre voksne og patienter. Endnu vigtigere, paradigme er ekstremt følsomme over for finkornet manipulationer af tale-signal, og det kan bruges til at studere online behandling af de fleste emner i sprogforståelse på flere niveauer, såsom den finkornet akustisk fonetiske funktioner, egenskaber af ord, og de sproglige strukturer. Den protokol, der er beskrevet i denne artikel illustrerer, hvordan en typisk visuelle verden eyetracking studie er gennemført, med et eksempel på hvordan online behandling af nogle semantisk komplekse sætninger kan udforskes med den visuelle verden paradigme.

Introduction

Talesprog er en hurtig, igangværende informationsstrøm, som forsvinder lige bortrejst. Det er en udfordring at eksperimentelt studere denne timelige, hurtigt ændre tale signal. Øjenbevægelser registreres i den visuelle verden paradigme kan bruges til at overvinde denne udfordring. I en typisk eyetracking undersøgelse ved hjælp af visuelle verden paradigme, overvåges deltagernes øjenbevægelser til billeder på en skærm eller til virkelige objekter i en visual arbejdsområde de lytte til, eller producere, talesprog skildrer indholdet af den visuelle verden1 ,2,3,4. Den grundlæggende logik eller forbinder hypotesen bag dette paradigme er at begribe eller planlægger en ytring vil (åbenlyst eller skjult) Skift deltagernes visuel opmærksomhed til et bestemt objekt i den visuelle verden. Denne opmærksomhed skift vil have stor sandsynlighed for at indlede en saccadic øje bevægelse for at bringe området deltog i den foveal vision. Med dette paradigme, forskere har til hensigt at bestemme på hvilket tidsmæssige punkt med hensyn til nogle akustiske vartegn i tale signal, et skift i deltagerens visuel opmærksomhed opstår, som målt ved en saccadic øjenbevægelser til et objekt eller et billede i visuelle verden. Hvornår og hvor saccadic øjenbevægelser er lanceret i forbindelse med indlæg signalet bruges derefter til at udlede online sprogbehandling. Den visuelle verden paradigme kan bruges til at studere både talesprog forståelse1,2 og produktion5,6. Dette metodologiske artikel vil fokusere på forståelse undersøgelser. I en forståelse undersøgelse ved hjælp af visuelle verden paradigme, deltagernes øje bevægelser på den visuelle display overvåges som de lytter til de talte ytringer taler om den visuelle display.

Forskellige eye tracking systemer er blevet designet i historie. Den enkleste, billigste og mest bærbare system er bare en normal video kamera, der registrerer et billede af deltagerens øjne. Øjenbevægelser er derefter manuelt kodet via frame-by-frame undersøgelse af videooptagelsen. Dog samplingfrekvensen af sådan en øje-tracker er relativt lav, og den kodning procedure er tidskrævende. Således, en moderne kommercielle eye tracking system normalt bruger optiske sensorer måler retningen af øjet i sin bane7,8,9. For at forstå, hvordan en moderne kommercielle eye-tracking systemet fungerer, bør følgende punkter overvejes. Første, der korrekt måler retningen af den foveal vision, en infrarød illuminator (normalt med bølgelængde omkring 780-880 nm) er normalt lagt langs eller fra den optiske akse af kameraet, gør billedet af eleven distinguishably lysere eller mørkere end den omkringliggende iris. Billede af eleven og/eller elev hornhinde refleksion (normalt den første Purkinje billede) bruges derefter til at beregne orientering af øjet i sin bane. Andet er blik placering i den visuelle verden faktisk betinget af ikke kun øje orientering med hensyn til lederen, men også den hoved orientering med hensyn til den visuelle verden. Du kan præcist udlede blik for henvisning fra øjet orientering, lyskilden og kamera af eye-trackers enten er fastsat med hensyn til deltagernes hovedet (head-monteret øje-trackers) eller er fastsat med hensyn til den visuelle verden (tabel-monteret eller Remote øje-bane). For det tredje deltagernes hoved orientering skal enten være fastgjort med hensyn til den visuelle verden eller kompenseres beregningsmæssigt hvis deltagernes hoved er gratis at flytte. Når en fjernbetjening øje-tracker bruges i et hoved, der gratis at flyttetilstand, indspillet deltagernes hovedets stilling typisk ved at placere en lille mærkat på deltagernes pande. Den hoved orientering er derefter beregningsmæssigt trækkes fra øjet orientering at hente blik placering i den visuelle verden. For det fjerde er en kalibrering og en valideringsproces så forpligtet til kort orientering af øjet blik af henvisning i den visuelle verden. I kalibreringsprocessen registreres deltagernes fiksering prøver fra kendte mål point for at kortdata rå øje for at stirre position i den visuelle verden. I valideringsprocessen præsenteres deltagerne med de samme mål point som kalibreringsprocessen. Forskellen mellem den beregnede fiksering holdning fra de kalibrerede resultater og af det fikserede mål position i den visuelle verden bruges derefter til at bedømme nøjagtigheden af kalibreringen. Du kan yderligere bekræfte nøjagtigheden af tilknytningsprocessen, afdrift kontrol anvendes normalt hvert forsøg, hvor et enkelt fiksering mål er præsenteret for deltagerne til at måle forskellen mellem den beregnede fiksering holdning og den faktiske placering af den nuværende mål.

De primære data af en visuel verden undersøgelse er en strøm af blik steder i visuel verden, indspillet i øjet-tracker, spænder over hele eller dele af den retssag varighed samplefrekvensen. Den afhængige variabel bruges i en visuel verden undersøgelse er typisk andelen af prøver, deltagernes filmoptagelse er beliggende på visse geografiske region i den visuelle verden over en vis tidsvindue. For at analysere data, har et tidsvindue for det første skal udvælges, ofte omtales som perioder af interesse. Tidsvinduet er typisk tid låst til en præsentation af nogle sproglige begivenheder i den auditive input. Endvidere er den visuelle verden også behov for at opdele i flere regioner af interesse (ROIs), som hver er forbundet med et eller flere objekter. En sådan region indeholder objektet svarende til den korrekte forståelse af det talte sprog, og derfor kaldes ofte målområdet. En typisk måde at visualisere dataene er en del af fiksering plot, hvor på hver placering i et tidsvindue, andelen af prøver med et kig til hvert område af interesse er i gennemsnit på tværs af deltagerne og elementer.

Ved hjælp af oplysningerne fra en visuel verden undersøgelse, forskellige forskningsspørgsmål kan besvares: en) på foderkorn niveau, er deltagernes øjenbevægelser i den visuelle verden ramt af forskellige auditive sproglige input? b) Hvis der er en effekt, hvad er banen af effekten i løbet af retssagen? Er det en lineær virkning eller høje effekt? og c) Hvis der er en effekt, så på nobel-korn niveau, Hvornår er det tidligste tidsmæssige punkt hvor sådan en effekt opstår og hvor lang tid tager denne effekt sidste?

For statistisk at analysere resultaterne, bør følgende punkter overvejes. Første afgrænses respons variabel, dvsproportioner fjernsynsforetagender, både under og over (mellem 0 og 1), som vil følge en returnerer multinomial distribution i stedet for en normal fordeling. Fremover, kan ikke traditionelle statistiske metoder baseret på normal fordeling som t-test, ANOVA og lineær (blandet-effekt) modeller10, udnyttes direkte indtil proportioner er blevet omdannet til ubegrænsede variabler såsom med empiriske logit formel11 eller er blevet erstattet med ubegrænsede afhængige variabler såsom euklidisk afstand12. Statistiske teknikker, som ikke kræver antagelsen af normalfordelingen sådanne generaliserede lineære (blandet-effekt) modeller13 kan også bruges. Andet for at udforske skiftende bane af den observerede effekt, har en variabel betegner tidsserien tilføjes i modellen. Denne tidsserier variabel er oprindeligt øje-tracker prøveudtagningssteder udrettet til udbrud af sproget input. Da de skiftende bane ikke er typisk lineær, tilføjede en høj-ordre polynomium funktion af tidsserien normalt i (generel) lineær (blandet-effekt) modellen, dvs.vækst kurve analyser14. Derudover deltagernes øje positioner i det aktuelle indsamlingspunkt er meget afhængig forrige prøvetagning point (s), især når optagelse frekvensen er høj, resulterer i problemet med autokorrelation. For at reducere autokorrelation mellem de tilstødende prøveudtagningssteder, er oprindelige data ofte ned-samplede eller arkiveret lodret. I de seneste år, har generaliseret tilsætningsstof blandet effekt modeller (GAMM) også været brugt til at tackle autocorrelated fejl12,15,16. Bredde over placeringer varierer blandt forskellige undersøgelser, lige fra flere millisekunder til flere hundrede millisekunder. Den smalleste bin en undersøgelse kan vælge er begrænset af samplefrekvensen øje tracker anvendes i den konkrete undersøgelse. For eksempel, hvis en øje tracker har en samplingfrekvens på 500 Hz, kan ikke så bredden af tidsvinduet være mindre end 2 ms = 1000/500. For det tredje, når en statistisk analyse anvendes gentagne gange til hver tid placering af perioder med interesse, den familywise fejl induceret fra disse flere sammenligninger skal tackles. Som vi beskrev tidligere, bane analyse informerer forskeren om effekten observeres på foderkorn niveau er lineære med hensyn til ændring af tiden, men viser ikke hvornår den observerede effekt begynder at dukke op og hvordan længe den observerede effekten varer. For at bestemme den tidsmæssige placering, når den observerede forskel begynder at afvige, og at finde ud af varigheden af den tidsmæssige periode, at den observerede effekt varer, har en statistik analyse anvendes gentagne gange til hver tid bin. Disse flere sammenligninger vil indføre de såkaldte familywise fejl, uanset hvilken statistisk metode er brugt. Den familywise fejl er traditionelt korrigeret med Bonferroni justering17. For nylig, en metode, der kaldes ikke-parametrisk permutation test oprindeligt brugt i neuroimaging gemt18 er blevet anvendt til visuelle ordet paradigme19 til kontrol for den familywise fejl.

Forskere ved hjælp af visuelle verden paradigme agter at udlede forståelsen af nogle talesprog fra deltagernes øjenbevægelser i den visuelle verden. For at sikre gyldigheden af dette fradrag, skal andre faktorer, der muligvis påvirke øjenbevægelser enten udelukkes eller kontrollerede. De følgende to faktorer er blandt de almindelige, der skal overvejes. Den første faktor indebærer nogle systematiske mønstre i deltagernes forklarende fjernsynsforetagender uafhængig af sproget input, såsom tendens til at fiksere på øverste venstre quadrat visuel verden, og flytter øjnene i den vandrette retning er lettere end i den lodrette retning, etc.12,20 for at sikre, at de observerede fiksering mønstre er relateret til objekterne, ikke til den rumlige steder hvor objekterne er beliggende, de rumlige positioner af et objekt skal vejes på tværs af forskellige forsøg eller på tværs af forskellige deltagere. Den anden faktor, der kan påvirke deltagernes øjenbevægelser er funktionerne grundlæggende billede af objekter i visuelle verden, såsom luminans kontrast, farve og kant orientering, blandt andre21. For at diagnosticere denne konfunderende potentiale, den visuelle display er normalt præsenteret før igangsættelsen af det talte sprog eller før igangsættelsen af den kritiske akustiske markør af talesprog, for omkring 1000 ms for tidsmæssige perioden fra starten af den test billede til udbrud af test lyden, sproget input eller flertydig punkt af sproget input er ikke blevet hørt endnu. Nogen forskel mellem forskellige betingelser bør udledes til andre forstyrrende faktorer såsom den visuelle display i sig selv, i stedet for det sprog, input. Fremover, danner øjenbevægelser observeret i dette preview periode en baseline for fastsættelsen af effekten af den sproglige input. Dette preview periode giver også mulighed for deltagerne at få fortrolig med den visuelle display og reducere den systematiske bias af den forklarende optagelse når det talte sprog er præsenteret.

For at illustrere, hvordan en typisk eyetracking undersøgelse ved hjælp af visuelle verden paradigme er gennemført, beskriver følgende protokol et eksperiment, tilpasset fra L. Zhan17 at udforske online behandling af semantisk komplekse sætninger, dvs. disjunktiv erklæringer (S1 eller S2), conjunctive sætninger (S1 og S2) og men-sætninger (S1 men ikke-S2). I almindelige bevarelse er de oplysninger, der er udtrykt af nogle ytringer faktisk stærkere end sin bogstavelige betydning. Disjunktiv udsagn som Xiaoming’s box indeholder en ko eller en hane er sådanne udtalelser. Logisk, sætningen disjunktiv er sandt, så længe de to disjuncts Xiaoming’s box indeholder en ko og Xiaoming’s box indeholder en hane ikke er både falsk. Sætningen disjunktiv er derfor rigtigt, når de to disjuncts er begge sande, hvor den tilsvarende conjunctive sætning Xiaoming’s box indeholder en ko og en hane er også sandt. I almindelig samtale, dog høre den disjunktiv erklæring ofte tyder på, at den tilsvarende conjunctive sætning er falsk (skalar Implikatur); og antyder, at sandheden værdierne af de to disjuncts er ukendt af højttaler (uvidenhed inferens). Konti i litteraturen forskellige om to slutninger er grammatiske eller pragmatisk processer22,23,24,25,26. Forsøget viser, hvordan den visuelle verden paradigme kan bruges til at træffe afgørelse i sagen mellem disse konti ved at udforske online behandling af tre komplekse sætninger.

Protocol

Alle fag skal give informeret skriftligt samtykke før administration af de eksperimentelle protokoller. Alle procedurer, samtykke former og eksperimenterende protokollen blev godkendt af en videnskabsetisk komité af Beijing sprog og kultur Universitet. Bemærk: En forståelse undersøgelse ved hjælp af visuelle verden paradigme normalt består af følgende trin: indføre de teoretiske problemer skal undersøges; Danne en eksperimenterende design; Forberede de visuelle og auditive stimuli; R…

Representative Results

Deltagernes adfærdsmæssige reaktioner er sammenfattet i figur 4. Som vi beskrev tidligere, er det korrekte svar til en conjunctive sætning (S1 og S2) den store åben kasse, som rubrik A i figur 1. Det rigtige svar på et men-erklæring (S1 men ikke S2) er små åbne kassen med det første nævnte dyr, såsom Box D i figur 1. Kritisk, som boksen er valgt at sætningen dis…

Discussion

For at foretage en visuel verden, er der flere vigtige skridt til at følge. Første gang, forskere har til hensigt at udlede fortolkningen af auditorily præsenteres sprog via deltagernes øjenbevægelser i den visuelle verden. Fremover, i at designe layout af de visuelle stimuli, bør egenskaberne af øjenbevægelser i en naturlig opgave, der potentielt kan påvirker deltagernes øjenbevægelser kontrolleres. Effekten af det talte sprog på deltagernes øjenbevægelser kan derefter blive anerkendt. Andet, akustiske sig…

Disclosures

The authors have nothing to disclose.

Acknowledgements

Denne forskning blev støttet af Science Foundation for Beijing sprog og kultur Universitet under den grundlæggende forskningsmidler til Central universiteter (godkendelse nummer 15YJ050003).

Materials

Pixelmator Pixelmator Team http://www.pixelmator.com/pro/ image editing app
Praat Open Sourse http://www.fon.hum.uva.nl/praat/ Sound analyses and editting software
Eyelink 1000plus SR-Research, Inc https://www.sr-research.com/products/eyelink-1000-plus/ remote infrared eye tracker 
Experimental Builder SR-Research, Inc https://www.sr-research.com/experiment-builder/ eye tracker software 
Data Viewer SR-Research, Inc https://www.sr-research.com/data-viewer/ eye tracker software 
R Open Sourse https://www.r-project.org free software environment for statistical computing and graphics

References

  1. Tanenhaus, M. K., Spivey-Knowlton, M. J., Eberhard, K. M., Sedivy, J. C. Integration of visual and linguistic information in spoken language comprehension. Science. 268 (5217), 1632-1634 (1995).
  2. Cooper, R. M. The control of eye fixation by the meaning of spoken language: A new methodology for the real-time investigation of speech perception, memory, and language processing. Cognitive Psychology. 6 (1), 84-107 (1974).
  3. Salverda, A. P., Tanenhaus, M. K., de Groot, A. M. B., Hagoort, P. . Research methods in psycholinguistics and the neurobiology of language: A practical guide. , (2017).
  4. Huettig, F., Rommers, J., Meyer, A. S. Using the visual world paradigm to study language processing: A review and critical evaluation. Acta Psychologica. 137 (2), 151-171 (2011).
  5. Meyer, A. S., Sleiderink, A. M., Levelt, W. J. M. Viewing and naming objects: Eye movements during noun phrase production. Cognition. 66 (2), B25-B33 (1998).
  6. Griffin, Z. M., Bock, K. What the eyes say about speaking. Psychological Science. 11 (4), 274-279 (2000).
  7. Young, L. R., Sheena, D. Survey of eye movement recording methods. Behavior Research Methods & Instrumentation. 7 (5), 397-429 (1975).
  8. Conklin, K., Pellicer-Sánchez, A., Carrol, G. . Eye-tracking: A guide for applied linguistics research. , (2018).
  9. Duchowski, A. . Eye tracking methodology: Theory and practice. , (2007).
  10. Baayen, R. H., Davidson, D. J., Bates, D. M. Mixed-effects modeling with crossed random effects for subjects and items. Journal of Memory and Language. 59 (4), 390-412 (2008).
  11. Barr, D. J. Analyzing ‘visual world’ eyetracking data using multilevel logistic regression. Journal of Memory and Language. 59 (4), 457-474 (2008).
  12. Nixon, J. S., van Rij, J., Mok, P., Baayen, R. H., Chen, Y. The temporal dynamics of perceptual uncertainty: eye movement evidence from Cantonese segment and tone perception. Journal of Memory and Language. 90, 103-125 (2016).
  13. Bolker, B. M., et al. Generalized linear mixed models: A practical guide for ecology and evolution. Trends in Ecology and Evolution. 24 (3), 127-135 (2009).
  14. Mirman, D., Dixon, J. A., Magnuson, J. S. Statistical and computational models of the visual world paradigm: Growth curves and individual differences. Journal of Memory and Language. 59 (4), 475-494 (2008).
  15. Baayen, H., Vasishth, S., Kliegl, R., Bates, D. The cave of shadows: Addressing the human factor with generalized additive mixed models. Journal of Memory and Language. 94, 206-234 (2017).
  16. Baayen, R. H., van Rij, J., de Cat, C., Wood, S., Speelman, D., Heylen, K., Geeraerts, D. . Mixed-Effects Regression Models in Linguistics. 4, 49-69 (2018).
  17. Zhan, L. Scalar and ignorance inferences are both computed immediately upon encountering the sentential connective: The online processing of sentences with disjunction using the visual world paradigm. Frontiers in Psychology. 9, (2018).
  18. Maris, E., Oostenveld, R. Nonparametric statistical testing of EEG- and MEG-data. Journal of Neuroscience Methods. 164 (1), 177-190 (2007).
  19. Barr, D. J., Jackson, L., Phillips, I. Using a voice to put a name to a face: The psycholinguistics of proper name comprehension. Journal of Experimental Psychology-General. 143 (1), 404-413 (2014).
  20. Dahan, D., Tanenhaus, M. K., Salverda, A. P., van Gompel, R. P. G., Fischer, M. H., Murray, W. S., Hill, R. L. . Eye movements: A window on mind and brain. , 471-486 (2007).
  21. Parkhurst, D., Law, K., Niebur, E. Modeling the role of salience in the allocation of overt visual attention. Vision Research. 42 (1), 107-123 (2002).
  22. Grice, H. P., Cole, P., Morgan, J. L. Vol. 3 Speech Acts. Syntax and semantics. , 41-58 (1975).
  23. Sauerland, U. Scalar implicatures in complex sentences. Linguistics and Philosophy. 27 (3), 367-391 (2004).
  24. Chierchia, G. Scalar implicatures and their interface with grammar. Annual Review of Linguistics. 3 (1), 245-264 (2017).
  25. Fox, D., Sauerland, U., Stateva, P. . Presupposition and Implicature in Compositional Semantics. , 71-120 (2007).
  26. Meyer, M. C. . Ignorance and grammar. , (2013).
  27. SR Research Ltd. . SR Research Experiment Builder User Manual (Version 2.1.140). , (2017).
  28. SR Research Ltd. . EyeLink® 1000 Plus Technical Specifications. , (2017).
  29. SR Research Ltd. . EyeLink-1000-Plus-Brochure. , (2017).
  30. SR Research Ltd. . EyeLink® 1000 Plus User Manual (Version 1.0.12). , (2017).
  31. SR Research Ltd. . EyeLink® Data Viewer User’s Manual (Version 3.1.97). , (2017).
  32. McQueen, J. M., Viebahn, M. C. Tracking recognition of spoken words by tracking looks to printed words. The Quarterly Journal of Experimental Psychology. 60 (5), 661-671 (2007).
  33. Altmann, G. T. M., Kamide, Y. Incremental interpretation at verbs: restricting the domain of subsequent reference. Cognition. 73 (3), 247-264 (1999).
  34. Altmann, G. T. M., Kamide, Y. The real-time mediation of visual attention by language and world knowledge: Linking anticipatory (and other) eye movements to linguistic processing. Journal of Memory and Language. 57 (4), 502-518 (2007).
  35. Snedeker, J., Trueswell, J. C. The developing constraints on parsing decisions: The role of lexical-biases and referential scenes in child and adult sentence processing. Cognitive Psychology. 49 (3), 238-299 (2004).
  36. Allopenna, P. D., Magnuson, J. S., Tanenhaus, M. K. Tracking the time course of spoken word recognition using eye movements: Evidence for continuous mapping models. Journal of Memory and Language. 38 (4), 419-439 (1998).
  37. Zhan, L., Crain, S., Zhou, P. The online processing of only if and even if conditional statements: Implications for mental models. Journal of Cognitive Psychology. 27 (3), 367-379 (2015).
  38. Zhan, L., Zhou, P., Crain, S. Using the visual-world paradigm to explore the meaning of conditionals in natural language. Language, Cognition and Neuroscience. 33 (8), 1049-1062 (2018).
  39. Brown-Schmidt, S., Tanenhaus, M. K. Real-time investigation of referential domains in unscripted conversation: A targeted language game approach. Cognitive Science. 32 (4), 643-684 (2008).
  40. Fernald, A., Pinto, J. P., Swingley, D., Weinberg, A., McRoberts, G. W. Rapid gains in speed of verbal processing by infants in the 2nd year. Psychological Science. 9 (3), 228-231 (1998).
  41. Trueswell, J. C., Sekerina, I., Hill, N. M., Logrip, M. L. The kindergarten-path effect: studying on-line sentence processing in young children. Cognition. 73 (2), 89-134 (1999).
  42. Zhou, P., Su, Y., Crain, S., Gao, L. Q., Zhan, L. Children’s use of phonological information in ambiguity resolution: a view from Mandarin Chinese. Journal of Child Language. 39 (4), 687-730 (2012).
  43. Zhou, P., Crain, S., Zhan, L. Grammatical aspect and event recognition in children’s online sentence comprehension. Cognition. 133 (1), 262-276 (2014).
  44. Zhou, P., Crain, S., Zhan, L. Sometimes children are as good as adults: The pragmatic use of prosody in children’s on-line sentence processing. Journal of Memory and Language. 67 (1), 149-164 (2012).
  45. Moscati, V., Zhan, L., Zhou, P. Children’s on-line processing of epistemic modals. Journal of Child Language. 44 (5), 1025-1040 (2017).
  46. Helfer, K. S., Staub, A. Competing speech perception in older and younger adults: Behavioral and eye-movement evidence. Ear and Hearing. 35 (2), 161-170 (2014).
  47. Dickey, M. W., Choy, J. W. J., Thompson, C. K. Real-time comprehension of wh-movement in aphasia: Evidence from eyetracking while listening. Brain and Language. 100 (1), 1-22 (2007).
  48. Magnuson, J. S., Nusbaum, H. C. Acoustic differences, listener expectations, and the perceptual accommodation of talker variability. Journal of Experimental Psychology-Human Perception and Performance. 33 (2), 391-409 (2007).
  49. Reinisch, E., Jesse, A., McQueen, J. M. Early use of phonetic information in spoken word recognition: Lexical stress drives eye movements immediately. Quarterly Journal of Experimental Psychology. 63 (4), 772-783 (2010).
  50. Chambers, C. G., Tanenhaus, M. K., Magnuson, J. S. Actions and affordances in syntactic ambiguity resolution. Journal of Experimental Psychology-Learning Memory and Cognition. 30 (3), 687-696 (2004).
  51. Tanenhaus, M. K., Trueswell, J. C., Trueswell, J. C., Tanenhaus, M. K. . Approaches to Studying World-Situated Language Use: Bridging the Language-as-Product and Language-as-Action Traditions. , (2005).
check_url/58086?article_type=t

Play Video

Cite This Article
Zhan, L. Using Eye Movements Recorded in the Visual World Paradigm to Explore the Online Processing of Spoken Language. J. Vis. Exp. (140), e58086, doi:10.3791/58086 (2018).

View Video