Summary

Met behulp van oogbewegingen die worden opgenomen in de visuele wereld paradigma te verkennen van de Online verwerking van gesproken taal

Published: October 13, 2018
doi:

Summary

De visuele wereld paradigma bewaakt deelnemers oogbewegingen in de visuele werkruimte als ze beluisteren of een gesproken taal te spreken. Dit paradigma kan worden gebruikt om te onderzoeken van de online verwerking van een breed scala aan psycholinguïstisch vragen, met inbegrip van semantisch complexe verklaringen, zoals de verklaringen van de disjunctieve.

Abstract

In een typische eye tracking studie met behulp van de visuele wereld paradigma, deelnemers oog bewegingen op objecten of afbeeldingen in de visuele werkruimte worden vastgelegd via een oog-tracker als de deelnemer produceert of omhelst een gesproken taal beschrijven de gelijktijdige visuele wereld. Dit paradigma heeft hoge veelzijdigheid, als het kan worden gebruikt in een breed scala van de bevolking, met inbegrip van degenen die niet kunnen lezen en/of die niet openlijk geven hun gedrags reacties, zoals ongeletterd kinderen, oudere volwassenen en patiënten. Nog belangrijker, het paradigma is zeer gevoelig voor fijnkorrelige manipulaties van het signaal van de toespraak, en het kan worden gebruikt voor het bestuderen van de online verwerking van de meeste onderwerpen in taalbegrip op meerdere niveaus, zoals de fijnkorrelige akoestische fonetische functies, de eigenschappen van de woorden en de taalkundige structuren. Het protocol beschreven in dit artikel ziet u hoe een typische visuele wereld eye tracking studie wordt uitgevoerd, met een voorbeeld waaruit blijkt hoe de online verwerking van sommige semantisch complexe instructies kan worden onderzocht met de visuele wereld paradigma.

Introduction

Gesproken taal is een snelle, continue informatiestroom, die meteen verdwijnt. Het is een uitdaging om experimenteel studeren dit temporele, snel wijzigen toespraak signaal. Oogbewegingen die worden opgenomen in de visuele wereld paradigma kunnen worden gebruikt om te overwinnen van deze uitdaging. In een typische eye tracking studie met behulp van de visuele wereld paradigma, worden oogbewegingen deelnemers foto’s in een weergave of reële objecten in een visuele werkruimte gecontroleerd als ze naar luisteren, of produceren, gesproken taal beeltenis van de inhoud van de visuele wereld1 ,2,3,4. De fundamentele logica, of de koppeling hypothese, achter dit paradigma is dat begrijpen of een uiting van plan zal (openlijk of heimelijk) deelnemers visuele aandacht verschuiven naar een bepaald object in de visuele wereld. Deze verschuiving van de aandacht zal hebben een hoge waarschijnlijkheid tot een saccadic oog beweging het bezochte gebied om in te brengen de foveal visie. Met dit paradigma willen de onderzoekers bepalen op welk temporele punt, met betrekking tot sommige akoestische landmark in het signaal van de toespraak, een verschuiving in de visuele aandacht van de deelnemer optreedt, zoals gemeten door een saccadic oog beweging naar een object of een afbeelding in de visuele wereld. Waar en wanneer saccadic oogbewegingen worden gelanceerd in verband met de toespraak signaal worden vervolgens gebruikt om de online taalverwerking afleiden. De visuele wereld paradigma kan worden gebruikt om zowel de gesproken taal begrip1,2 en de productie5,6te studeren. Deze methodologische artikel zal zich richten op begrip studies. In een studie van het begrip met behulp van de visuele wereld paradigma, deelnemers oog bewegingen op de visuele weergave worden gecontroleerd als ze luisteren naar de gesproken uitingen over de visuele weergave.

Verschillende eye tracking-systemen zijn ontworpen in de geschiedenis. De eenvoudigste, goedkoopste en meest draagbaar systeem is gewoon een normale videocamera, die een beeld van de ogen van de deelnemer registreert. Oogbewegingen worden vervolgens handmatig gecodeerd door middel van onderzoek van de frame-voor-frame van de video-opname. Echter de samplefrequentie voor zo’n een oog-tracker is relatief laag, en de codering procedure is tijdrovend. Dus, een hedendaagse commerciële eye tracking systeem normaal gebruikt optische sensoren voor het meten van de richting van het oog in zijn baan7,8,9. Om te begrijpen hoe een moderne commerciële eye-tracking systeem werkt, moeten de volgende punten worden beschouwd. Eerste, voor het correct meten van de richting van de foveal visie en een infrarood verlichter (normaal met de golflengte rond 780-880 nm) normaal wordt gelegd langs of uit de optische as van de camera, waardoor de opname van de leerling distinguishably helderder of donkerder dan de omliggende iris. Het beeld van de leerling en/of de leerling hoornvlies reflectie (normaal gesproken de eerste Purkinje afbeelding) wordt vervolgens gebruikt voor het berekenen van de oriëntatie van het oog in zijn baan. Ten tweede, de locatie van de blik in de visuele wereld is eigenlijk afhankelijk zijn, niet alleen op het oog-oriëntatie ten opzichte van het hoofd, maar ook over de hoofd richting met betrekking tot de visuele wereld. Om nauwkeurig het afleiden van de blik van de verwijzing van de oriëntatie van het oog, de lichtbron en de camera van de oog-trackers worden opgelost met betrekking tot de deelnemers hoofd (hoofd gemonteerde oog-trackers) of zijn vastgesteld met betrekking tot de visuele wereld (tabel gemonteerde of afstand oog-trackers). Ten derde, de deelnemers hoofd geaardheid moet ofwel worden vastgesteld met betrekking tot de visuele wereld of rekenkundig worden gecompenseerd als hoofd van de deelnemers vrij om te bewegen. Wanneer een externe oog-tracker wordt gebruikt in de modus van een hoofd-gratis-te verplaatsen, is meestal de deelnemers hoofd standpunt opgenomen door het plaatsen van een kleine sticker op het voorhoofd van de deelnemers. De afdrukstand van de hoofd wordt vervolgens computationeel afgetrokken van de oog-oriëntatie voor het ophalen van de locatie van de blik in de visuele wereld. Ten vierde, een kalibratie- en een validatieprocedure dienen vervolgens toewijzen van de oriëntatie van het oog aan de blik van de verwijzing in de visuele wereld. In het kalibratieproces, deelnemers fixatie monsters van bekende doel punten vastgelegd, zodat de ruwe oog kaartgegevens om de blik van de positie in de visuele wereld. In het validatieproces, deelnemers gepresenteerd met dezelfde doelstelling punten als het kalibratieproces. Het verschil tussen de positie van de berekende fixatie van de gekalibreerde resultaten en de werkelijke positie van de doelmap voor gefixeerd in de visuele wereld bestaande worden vervolgens gebruikt om te beoordelen van de nauwkeurigheid van de kalibratie. Om te verder bevestigen de juistheid van het toewijzingsproces, een controle drift is normaal van toepassing voor elk afzonderlijk experiment, waar een interne fixatie doelwit wordt aangeboden aan de deelnemers voor het meten van het verschil tussen de berekende fixatie positie en de werkelijke positie van de huidige doelstelling.

De primaire gegevens van een visuele wereld studie is een stroom van blik locaties in de visuele wereld opgenomen in de samplefrequentie voor de oog-tracker, variërend over het geheel of een deel van de duur van de proef. De afhankelijke variabele gebruikt in de studie van een visuele wereld is doorgaans het aantal monsters dat deelnemers vastleggingen op bepaalde ruimtelijke regio in de visuele wereld over een bepaalde tijdsinterval liggen. Om de gegevens te analyseren, moet een tijd-venster ten eerste worden geselecteerd, vaak aangeduid als perioden van belang. Het tijdsinterval is meestal tijd vergrendeld aan de presentatie van bepaalde taalkundige gebeurtenissen in de auditieve input. Bovendien is de visuele wereld ook nodig om te splitsen in verschillende regio’s van belang (ROIs), die gekoppeld aan een of meer objecten is. Één dergelijke regio bevat de object dat overeenkomt met het juiste begrip van de gesproken taal, en dus heet vaak het doelgebied. Een typische manier om te visualiseren van gegevens is een complot van de aandeel-voor-fixatie, waar op elke opslaglocatie in een venster van de tijd, het aantal monsters met een blik aan elk gebied van belang zijn gemiddeld over deelnemers en items.

Met behulp van de gegevens die zijn verkregen uit een studie van de visuele wereld, verschillende onderzoeksvragen kunnen worden beantwoord: een) op het niveau van grof-korrel, zijn deelnemers oogbewegingen in de visuele wereld beïnvloed door verschillende auditieve taalkundige input? b) als er een effect, wat is het traject van het effect in de loop van het proces? Is het een lineaire effect of Eersterangs effect? en c) als er een effect, dan op het niveau van de fine-korrel, wanneer is het vroegste temporele punt waar dergelijk effect naar voren komt en hoe lang duurt dit effect laatste?

Om de resultaten statistisch te analyseren, moeten de volgende punten worden beschouwd. Ten eerste, de reactie variabele, d.w.z., verhoudingen van vastleggingen, is zowel onder als boven begrensd (tussen 0 en 1), die zullen volgen een multinomiale verdeling in plaats van een normale verdeling. Voortaan, kunnen niet traditionele statistische methoden op basis van normale verdeling zoals t-test, ANOVA en lineaire modellen (gemengd-effect)10, rechtstreeks worden gebruikt, totdat de verhoudingen zijn getransformeerd naar onbegrensde variabelen zoals met empirische logit formule11 of onbegrensd afhankelijke variabelen zoals de Euclidische afstand12zijn vervangen. Statistische technieken die vereisen niet dat de veronderstelling van normaalverdeling dergelijke veralgemeende lineaire modellen (gemengd-effect)13 kunnen ook worden gebruikt. Ten tweede, voor het verkennen van het veranderende traject van de waargenomen effecten, een variabele ter aanduiding van de tijd-serie heeft om in het model worden toegevoegd. Deze variabele tijd-serie is oorspronkelijk de oog-tracker de monsternemingspunten verlegde aan het begin van de taal invoeren. Aangezien het veranderende traject meestal niet lineair is, is normaal gesproken een eersterangs polynomiale functie van de tijd-serie in de (algemene) lineair (gemengd-effect) model, dat wil zeggengroei curve analyses14toegevoegd. Bovendien deelnemers oog posities in het huidige monsterpunt is sterk afhankelijk van vorige bemonstering punt, vooral wanneer de opname frequentie is hoog, wat resulteert in het probleem van de autocorrelatiefunctie. Verklein de autocorrelatie tussen de aangrenzende meetpunten en zijn oorspronkelijke gegevens vaak neer in de steekproef opgenomen of weggegooid. In de afgelopen jaren zijn ook de modellen van de veralgemeende additieve gemengd effect (GAMM) gebruikt om aan te pakken van de autocorrelated fouten12,15,16. De breedte van opslaglocaties varieert tussen verschillende onderzoeken, variërend van enkele milliseconden tot enkele honderd milliseconden. De smalste bin die een studie kunt kiezen wordt beperkt door de samplefrequentie voor de eye tracker gebruikt in de specifieke studie. Bijvoorbeeld, als een eye tracker een sampling-frequentie van 500 Hz heeft, mag vervolgens de breedte van het venster van de tijd niet kleiner zijn dan 2 ms = 1000/500. Ten derde, wanneer een statistische analyse herhaaldelijk op elke opslaglocatie van de tijd van de periodes van belang toegepast wordt, de familywise fout veroorzaakte daaruit die meerdere vergelijkingen moeten worden aangepakt. Zoals we eerder beschreven, de analyse van het traject informeert de onderzoeker of het effect waargenomen op het niveau van grof-korrel is lineair met betrekking tot het wijzigen van de tijd, maar toont niet wanneer het waargenomen effect begint te ontstaan en hoe lang de waargenomen effect duurt. De temporele om positie te bepalen wanneer het geobserveerde verschil begint te wijken, en om erachter te komen de duur van de tijdelijke periode die duurt van de waargenomen effecten, heeft een statistische analyse herhaaldelijk worden toegepast op elke opslaglocatie van de tijd. Deze meerdere vergelijkingen zal introduceren op de zogenaamde familywise fout, ongeacht welke statistische methode wordt gebruikt. De familywise fout wordt traditioneel gecorrigeerd met Bonferroni aanpassing17. Onlangs, een methode genaamd niet-parametrische permutatie test oorspronkelijk gebruikt in neuroimaging geplaatst18 is vereffend met de visuele woord paradigma19 te controleren voor de familywise fout.

Onderzoekers met behulp van de visuele wereld paradigma willen afleiden van het begrijpen van een gesproken taal van deelnemers oogbewegingen in de visuele wereld. Om ervoor te zorgen de geldigheid van deze aftrek, moeten andere factoren die mogelijk invloed hebben op de oogbewegingen worden uitgesloten of gecontroleerd. De volgende twee factoren behoren tot de gemeenschappelijke regels die moeten worden overwogen. De eerste factor betreft enkele systematische patronen in deelnemers verklarende vastleggingen onafhankelijk van de taal invoeren, zoals de neiging om te fixeren op de linksboven quadrat van de visuele wereld, en de bewegende ogen in de horizontale richting wordt eenvoudiger dan in de verticale richting, etc.12,20 om ervoor te zorgen dat de waargenomen fixatie patronen zijn gerelateerd aan de objecten, niet naar de ruimtelijke locaties waar de objecten zich bevinden, de ruimtelijke positie van een object moeten worden gecompenseerd via verschillende proeven of via verschillende deelnemers. De tweede factor die van invloed kan zijn op de deelnemers oogbewegingen is de basisinstallatiekopie kenmerken van de objecten in de visuele wereld, zoals luminantie contrast, kleur en edge oriëntatie, o.a.21. Om te diagnosticeren van dit potentieel storende, de visuele weergave wordt normaal gepresenteerd voorafgaand aan het begin van de gesproken taal of vóór het begin van de kritische akoestische markering van de gesproken taal, voor ongeveer 1000 ms. tijdens de tijdelijke periode vanaf het begin van de Testafbeelding aan het begin van de test-audio, de taal invoeren of het doorverwijspagina punt van de taal ingang heeft nog niet gehoord. Geen verschil waargenomen tussen verschillende omstandigheden moet worden afgeleid naar andere storende factoren zoals de visuele weergave per se, in plaats van de taal invoeren. Voortaan, bieden oogbewegingen waargenomen in deze preview periode een basislijn voor het bepalen van het effect van de taalkundige input. Deze preview periode kunt ook deelnemers krijgen vertrouwd gemaakt met de visuele weergave, en de systematische vertekening van de verklarende vastleggingen verminderen wanneer de gesproken taal wordt gepresenteerd.

Om te illustreren hoe een typische eye tracking studie met behulp van de visuele wereld paradigma wordt uitgevoerd, beschrijft het volgende protocol een experiment aangepast van L. Zhan17 tot het verkennen van de online verwerking van semantisch complexe verklaringen, dat wil zeggen, Disjunctieve verklaringen (S1 of S2), conjunctieve instructies (S1 en S2) en maar-verklaringen (S1 maar niet-S2). In gewone instandhouding is de informatie die is uitgedrukt door sommige uitingen eigenlijk sterker dan de letterlijke betekenis. Disjunctieve verklaringen zoals Xiaoming van vak bevat een koe of een haan zijn dergelijke uitingen. Logisch, de disjunctieve bewering klopt zolang de twee disjuncts van Xiaoming vak bevat een koe en Xiaoming van vak een haan niet beide zijn onwaar. De disjunctieve bewering klopt dus, wanneer de twee disjuncts beide true zijn, waar de overeenkomstige conjunctieve instructie Xiaoming van vak bevat een koe en een haan ook waar is. In gewone gesprek, echter horen dat de disjunctieve instructie vaak suggereert dat de overeenkomstige conjunctieve instructie onwaar is (scalaire Implicatuur); en stelt dat de waarden van de waarheid van de twee disjuncts onbekend door de spreker (onwetendheid gevolgtrekking zijn). Rekeningen in de literatuur verschillen in of twee gevolgtrekkingen grammaticale of pragmatische processen22,23,24,25,26 zijn. Het experiment ziet u hoe de visuele wereld paradigma te berechten tussen deze rekeningen, door het verkennen van de online verwerking van drie complexe instructies kan worden gebruikt.

Protocol

Alle onderwerpen moeten geven geïnformeerde schriftelijke toestemming vóór de administratie van de experimentele protocollen. Alle procedures, toestemmingsformulieren, en de experimentele protocol werden goedgekeurd door de ethische commissie van onderzoek van de Beijing taal en cultuur-Universiteit. Opmerking: Een begrip studie met behulp van de visuele wereld paradigma normaliter bestaat uit de volgende stappen uit: voeren de theoretische problemen worden onderzocht; Vormen van een experi…

Representative Results

Deelnemers gedrags reacties worden samengevat in Figuur 4. Zoals we eerder beschreven, is het juiste antwoord op een conjunctieve verklaring (S1 en S2) het grote open vak, zoals vak A in Figuur 1. Het juiste antwoord op een maar-verklaring (S1 maar niet S2) is het open vakje met de eerste genoemde dier, zoals vak D in Figuur 1. Kritisch, welke vak de disjunctieve verklaring…

Discussion

Als u wilt een visuele wereld onderzoek, zijn er verschillende kritische stappen te volgen. Eerst, willen onderzoekers afleiden van de interpretatie van de auditorily gepresenteerd taal via deelnemers oogbewegingen in de visuele wereld. Voortaan moeten bij het ontwerpen van de lay-out van de visuele stimuli, de eigenschappen van oogbewegingen in een natuurlijke taak die potentieel deelnemers oogbewegingen beïnvloeden worden gecontroleerd. Het effect van de gesproken taal op deelnemers oogbewegingen kan vervolgens worden…

Disclosures

The authors have nothing to disclose.

Acknowledgements

Dit onderzoek werd gesteund door Science Foundation van Peking taal en culturele universiteit onder de fundamentele middelen voor onderzoek voor de centrale universiteiten (goedkeuring nummer 15YJ050003).

Materials

Pixelmator Pixelmator Team http://www.pixelmator.com/pro/ image editing app
Praat Open Sourse http://www.fon.hum.uva.nl/praat/ Sound analyses and editting software
Eyelink 1000plus SR-Research, Inc https://www.sr-research.com/products/eyelink-1000-plus/ remote infrared eye tracker 
Experimental Builder SR-Research, Inc https://www.sr-research.com/experiment-builder/ eye tracker software 
Data Viewer SR-Research, Inc https://www.sr-research.com/data-viewer/ eye tracker software 
R Open Sourse https://www.r-project.org free software environment for statistical computing and graphics

References

  1. Tanenhaus, M. K., Spivey-Knowlton, M. J., Eberhard, K. M., Sedivy, J. C. Integration of visual and linguistic information in spoken language comprehension. Science. 268 (5217), 1632-1634 (1995).
  2. Cooper, R. M. The control of eye fixation by the meaning of spoken language: A new methodology for the real-time investigation of speech perception, memory, and language processing. Cognitive Psychology. 6 (1), 84-107 (1974).
  3. Salverda, A. P., Tanenhaus, M. K., de Groot, A. M. B., Hagoort, P. . Research methods in psycholinguistics and the neurobiology of language: A practical guide. , (2017).
  4. Huettig, F., Rommers, J., Meyer, A. S. Using the visual world paradigm to study language processing: A review and critical evaluation. Acta Psychologica. 137 (2), 151-171 (2011).
  5. Meyer, A. S., Sleiderink, A. M., Levelt, W. J. M. Viewing and naming objects: Eye movements during noun phrase production. Cognition. 66 (2), B25-B33 (1998).
  6. Griffin, Z. M., Bock, K. What the eyes say about speaking. Psychological Science. 11 (4), 274-279 (2000).
  7. Young, L. R., Sheena, D. Survey of eye movement recording methods. Behavior Research Methods & Instrumentation. 7 (5), 397-429 (1975).
  8. Conklin, K., Pellicer-Sánchez, A., Carrol, G. . Eye-tracking: A guide for applied linguistics research. , (2018).
  9. Duchowski, A. . Eye tracking methodology: Theory and practice. , (2007).
  10. Baayen, R. H., Davidson, D. J., Bates, D. M. Mixed-effects modeling with crossed random effects for subjects and items. Journal of Memory and Language. 59 (4), 390-412 (2008).
  11. Barr, D. J. Analyzing ‘visual world’ eyetracking data using multilevel logistic regression. Journal of Memory and Language. 59 (4), 457-474 (2008).
  12. Nixon, J. S., van Rij, J., Mok, P., Baayen, R. H., Chen, Y. The temporal dynamics of perceptual uncertainty: eye movement evidence from Cantonese segment and tone perception. Journal of Memory and Language. 90, 103-125 (2016).
  13. Bolker, B. M., et al. Generalized linear mixed models: A practical guide for ecology and evolution. Trends in Ecology and Evolution. 24 (3), 127-135 (2009).
  14. Mirman, D., Dixon, J. A., Magnuson, J. S. Statistical and computational models of the visual world paradigm: Growth curves and individual differences. Journal of Memory and Language. 59 (4), 475-494 (2008).
  15. Baayen, H., Vasishth, S., Kliegl, R., Bates, D. The cave of shadows: Addressing the human factor with generalized additive mixed models. Journal of Memory and Language. 94, 206-234 (2017).
  16. Baayen, R. H., van Rij, J., de Cat, C., Wood, S., Speelman, D., Heylen, K., Geeraerts, D. . Mixed-Effects Regression Models in Linguistics. 4, 49-69 (2018).
  17. Zhan, L. Scalar and ignorance inferences are both computed immediately upon encountering the sentential connective: The online processing of sentences with disjunction using the visual world paradigm. Frontiers in Psychology. 9, (2018).
  18. Maris, E., Oostenveld, R. Nonparametric statistical testing of EEG- and MEG-data. Journal of Neuroscience Methods. 164 (1), 177-190 (2007).
  19. Barr, D. J., Jackson, L., Phillips, I. Using a voice to put a name to a face: The psycholinguistics of proper name comprehension. Journal of Experimental Psychology-General. 143 (1), 404-413 (2014).
  20. Dahan, D., Tanenhaus, M. K., Salverda, A. P., van Gompel, R. P. G., Fischer, M. H., Murray, W. S., Hill, R. L. . Eye movements: A window on mind and brain. , 471-486 (2007).
  21. Parkhurst, D., Law, K., Niebur, E. Modeling the role of salience in the allocation of overt visual attention. Vision Research. 42 (1), 107-123 (2002).
  22. Grice, H. P., Cole, P., Morgan, J. L. Vol. 3 Speech Acts. Syntax and semantics. , 41-58 (1975).
  23. Sauerland, U. Scalar implicatures in complex sentences. Linguistics and Philosophy. 27 (3), 367-391 (2004).
  24. Chierchia, G. Scalar implicatures and their interface with grammar. Annual Review of Linguistics. 3 (1), 245-264 (2017).
  25. Fox, D., Sauerland, U., Stateva, P. . Presupposition and Implicature in Compositional Semantics. , 71-120 (2007).
  26. Meyer, M. C. . Ignorance and grammar. , (2013).
  27. SR Research Ltd. . SR Research Experiment Builder User Manual (Version 2.1.140). , (2017).
  28. SR Research Ltd. . EyeLink® 1000 Plus Technical Specifications. , (2017).
  29. SR Research Ltd. . EyeLink-1000-Plus-Brochure. , (2017).
  30. SR Research Ltd. . EyeLink® 1000 Plus User Manual (Version 1.0.12). , (2017).
  31. SR Research Ltd. . EyeLink® Data Viewer User’s Manual (Version 3.1.97). , (2017).
  32. McQueen, J. M., Viebahn, M. C. Tracking recognition of spoken words by tracking looks to printed words. The Quarterly Journal of Experimental Psychology. 60 (5), 661-671 (2007).
  33. Altmann, G. T. M., Kamide, Y. Incremental interpretation at verbs: restricting the domain of subsequent reference. Cognition. 73 (3), 247-264 (1999).
  34. Altmann, G. T. M., Kamide, Y. The real-time mediation of visual attention by language and world knowledge: Linking anticipatory (and other) eye movements to linguistic processing. Journal of Memory and Language. 57 (4), 502-518 (2007).
  35. Snedeker, J., Trueswell, J. C. The developing constraints on parsing decisions: The role of lexical-biases and referential scenes in child and adult sentence processing. Cognitive Psychology. 49 (3), 238-299 (2004).
  36. Allopenna, P. D., Magnuson, J. S., Tanenhaus, M. K. Tracking the time course of spoken word recognition using eye movements: Evidence for continuous mapping models. Journal of Memory and Language. 38 (4), 419-439 (1998).
  37. Zhan, L., Crain, S., Zhou, P. The online processing of only if and even if conditional statements: Implications for mental models. Journal of Cognitive Psychology. 27 (3), 367-379 (2015).
  38. Zhan, L., Zhou, P., Crain, S. Using the visual-world paradigm to explore the meaning of conditionals in natural language. Language, Cognition and Neuroscience. 33 (8), 1049-1062 (2018).
  39. Brown-Schmidt, S., Tanenhaus, M. K. Real-time investigation of referential domains in unscripted conversation: A targeted language game approach. Cognitive Science. 32 (4), 643-684 (2008).
  40. Fernald, A., Pinto, J. P., Swingley, D., Weinberg, A., McRoberts, G. W. Rapid gains in speed of verbal processing by infants in the 2nd year. Psychological Science. 9 (3), 228-231 (1998).
  41. Trueswell, J. C., Sekerina, I., Hill, N. M., Logrip, M. L. The kindergarten-path effect: studying on-line sentence processing in young children. Cognition. 73 (2), 89-134 (1999).
  42. Zhou, P., Su, Y., Crain, S., Gao, L. Q., Zhan, L. Children’s use of phonological information in ambiguity resolution: a view from Mandarin Chinese. Journal of Child Language. 39 (4), 687-730 (2012).
  43. Zhou, P., Crain, S., Zhan, L. Grammatical aspect and event recognition in children’s online sentence comprehension. Cognition. 133 (1), 262-276 (2014).
  44. Zhou, P., Crain, S., Zhan, L. Sometimes children are as good as adults: The pragmatic use of prosody in children’s on-line sentence processing. Journal of Memory and Language. 67 (1), 149-164 (2012).
  45. Moscati, V., Zhan, L., Zhou, P. Children’s on-line processing of epistemic modals. Journal of Child Language. 44 (5), 1025-1040 (2017).
  46. Helfer, K. S., Staub, A. Competing speech perception in older and younger adults: Behavioral and eye-movement evidence. Ear and Hearing. 35 (2), 161-170 (2014).
  47. Dickey, M. W., Choy, J. W. J., Thompson, C. K. Real-time comprehension of wh-movement in aphasia: Evidence from eyetracking while listening. Brain and Language. 100 (1), 1-22 (2007).
  48. Magnuson, J. S., Nusbaum, H. C. Acoustic differences, listener expectations, and the perceptual accommodation of talker variability. Journal of Experimental Psychology-Human Perception and Performance. 33 (2), 391-409 (2007).
  49. Reinisch, E., Jesse, A., McQueen, J. M. Early use of phonetic information in spoken word recognition: Lexical stress drives eye movements immediately. Quarterly Journal of Experimental Psychology. 63 (4), 772-783 (2010).
  50. Chambers, C. G., Tanenhaus, M. K., Magnuson, J. S. Actions and affordances in syntactic ambiguity resolution. Journal of Experimental Psychology-Learning Memory and Cognition. 30 (3), 687-696 (2004).
  51. Tanenhaus, M. K., Trueswell, J. C., Trueswell, J. C., Tanenhaus, M. K. . Approaches to Studying World-Situated Language Use: Bridging the Language-as-Product and Language-as-Action Traditions. , (2005).
check_url/58086?article_type=t

Play Video

Cite This Article
Zhan, L. Using Eye Movements Recorded in the Visual World Paradigm to Explore the Online Processing of Spoken Language. J. Vis. Exp. (140), e58086, doi:10.3791/58086 (2018).

View Video