Summary

Verwendung von Augenbewegungen aufgezeichnet in der visuellen Welt Paradigma, die Online-Verarbeitung von gesprochener Sprache zu erkunden

Published: October 13, 2018
doi:

Summary

Die visuelle Welt Paradigma überwacht Teilnehmer Augenbewegungen im visuellen Arbeitsbereich anhören oder eine gesprochene Sprache. Dieses Paradigma kann verwendet werden, um die Online-Verarbeitung einer breiten Palette von Psycholinguistische Fragen, einschließlich semantisch komplexe Anweisungen, wie z. B. disjunktive Aussagen zu untersuchen.

Abstract

Eine typische Eyetracking-Studie mit dem Paradigma der visuellen Welt, Teilnehmer Augenbewegungen auf Objekte oder Bilder im visuellen Arbeitsbereich sind über eine Eye-Tracker aufgezeichnet, wie die Teilnehmer produziert oder begreift eine gesprochene Sprache beschreibt das gleichzeitige visuelle Welt. Dieses Paradigma hat hohe Vielseitigkeit, wie es in den unterschiedlichsten Bevölkerungsgruppen, einschließlich derjenigen, die nicht lesen und/oder wer kann nicht offen geben ihre Verhaltensreaktionen wie preliterate Kinder und ältere Erwachsene Patienten, verwendet werden kann. Noch wichtiger ist, das Paradigma ist extrem empfindlich gegenüber feinkörnige Manipulationen des Sprachsignals, und es kann verwendet werden, um die Online-Verarbeitung von die meisten Themen im Sprachverständnis auf mehreren Ebenen, wie z. B. die feinkörnige akustische phonetische studieren Funktionen, die Eigenschaften der Wörter und sprachlichen Strukturen. Das Protokoll in diesem Artikel beschriebenen veranschaulicht, wie eine typische Bildwelt Eyetracking-Studie durchgeführt wird, anhand eines Beispiels zeigen, wie die Online-Verarbeitung von einige semantisch komplexen Anweisungen mit dem Paradigma der visuellen Welt erkundet werden kann.

Introduction

Gesprochene Sprache ist eine schnelle und kontinuierliche Informationsfluss, die sofort verschwindet. Es ist eine Herausforderung, experimentell zu diesem zeitlichen studieren, Sprachsignal sehr schnell ändern. Augenbewegungen aufgezeichnet in der visuellen Welt Paradigma können verwendet werden, um diese Herausforderung zu meistern. In eine typische Eyetracking-Studie mit dem Paradigma der visuellen Welt werden Teilnehmer Augenbewegungen, Bilder in einer Anzeige oder reale Objekte in einem visuellen Arbeitsbereich überwacht, wie sie hören oder produzieren, gesprochenen Sprache, die Darstellung der Inhalte der visuellen Welt1 ,2,3,4. Die grundlegende Logik oder die Verknüpfung Hypothese hinter diesem Paradigma ist, dass zu begreifen oder Planung einer Äußerung (offen oder verdeckt) visuelle Aufmerksamkeit der Teilnehmer auf ein bestimmtes Objekt in der visuellen Welt verlagern wird. Diese Verschiebung der Aufmerksamkeit haben eine hohe Wahrscheinlichkeit, sakkadische Augenbewegungen die besuchte Gegend in der Fovea Vision bringen zu initiieren. Mit diesem Paradigma wollen Forscher bestimmen, an welchem zeitlichen Punkt in Bezug auf einige akustische Wahrzeichen in das Sprachsignal eine Verlagerung der visuellen Aufmerksamkeit des Teilnehmers auftritt, gemessen an einem sakkadische Augenbewegungen auf ein Objekt oder ein Bild in der visuellen Welt. Wann und wo sakkadische Augenbewegungen in Bezug auf das Sprachsignal gestartet werden werden verwendet, um die Online-Sprachverarbeitung ableiten. Die visuelle Welt Paradigma kann verwendet werden, um die gesprochene Sprache verstehen1,2 und Produktion5,6zu studieren. Dieser methodische Artikel konzentriert sich auf Verständnis Studien. In einer Studie Verständnis mit der Bildwelt Paradigma, Teilnehmer Auge Bewegungen auf die visuelle Anzeige überwacht werden, während sie die gesprochenen Äußerungen über die visuelle Darstellung sprechen hören.

Verschiedenen Eye-Tracking-Systeme wurden in der Geschichte entwickelt. Die einfachste, kostengünstigste und mobilste System ist nur eine normale Videokamera, die ein Bild des Teilnehmers Augen erfasst. Augenbewegungen werden dann manuell durch Frame-by-Frame-Prüfung der video-Aufnahme kodiert. Jedoch die Sampling-Rate von solchen Eye-Trackers ist relativ gering, und die Codierung Verfahren ist zeitaufwendig. So nutzt eine moderne kommerzielle Eye-tracking System normalerweise optische Sensoren messen die Orientierung des Auges in seiner Umlaufbahn7,8,9. Um zu verstehen, wie ein zeitgenössische kommerzielle Eyetracking-System funktioniert, sollten folgende Punkte beachtet werden. Erstens, um die Richtung der fovealen Vision, einen Infrarot-Illuminator korrekt Messen (normalerweise mit der Wellenlänge um 780-880 nm) wird normalerweise gelegt entlang oder aus der optischen Achse der Kamera, so dass das Bild des Schülers unterscheidbar heller oder dunkler als die umliegenden Iris. Das Bild des Schülers oder der Schülerin Hornhaut Reflexion (normalerweise das erste Purkinje-Bild) wird dann zur Berechnung der Orientierung des Auges in seiner Umlaufbahn. Zweitens ist der Blick-Standort in der visuellen Welt tatsächlich hängt nicht nur von der Auge-Orientierung in Bezug auf den Kopf, sondern auch auf die Ausrichtung des Kopfes in Bezug auf die visuelle Welt. Um genau den Blick aus dem Auge Ausrichtung ableiten, die Lichtquelle und die Kamera des Eye-Trackers sind in Bezug auf Teilnehmer Kopf (Head mounted Eye-Tracker) befestigt oder in Bezug auf die visuelle Welt fixiert sind (Tabelle montiert oder Remote Eye-Tracker). Drittens: die Teilnehmer Kopf Ausrichtung entweder in Bezug auf die visuelle Welt korrigiert werden muss oder rechnerisch kompensiert werden, wenn Teilnehmer Kopf frei beweglich ist. Wenn ein remote Eye-Tracker in einem Kopf-frei-zu-Move-Modus verwendet wird, wird die Teilnehmer Kopfposition in der Regel aufgezeichnet, indem ein kleiner Aufkleber auf Teilnehmer Stirn. Die Ausrichtung des Kopfes wird dann rechnerisch vom Auge Ausrichtung zu den Blick-Speicherort in der visuellen Welt abrufen subtrahiert. Viertens sind eine Kalibrierung und einen Validierungsprozess dann verpflichtet, die Orientierung des Auges den Blicken der Berücksichtigung der visuellen Welt abbilden. Bei der Kalibrierung sind Teilnehmer Fixierung Samples von bekannten Zielpunkte aufgenommen, um die rohe Auge Datenzuordnung, um die Position in der visuellen Welt bestaunen. In den Validierungsprozess präsentieren sich die Teilnehmer mit der gleichen Zielpunkte wie die Kalibrierung. Die Differenz zwischen der berechneten Fixierung Position aus die kalibrierten Ergebnisse und die aktuelle Position des fixierten Ziel der visuellen Welt werden dann verwendet, um die Genauigkeit der Kalibrierung zu beurteilen. Um die Genauigkeit des Zuordnungsprozesses noch einmal zu bestätigen, ein Drift-Scheck gilt normalerweise auf jeden Versuch, wo ein einzelnes Fixierung Ziel Teilnehmer um die Differenz zwischen der berechneten Fixierung-Position und der tatsächlichen Position des Messen vorgestellt wird die Aktuelles Ziel.

Die primären Daten einer visuellen Welt-Studie ist ein Stream Blick Standorte der visuellen Welt, aufgenommen in die Sampling-Rate des Eye-Trackers, über der gesamten oder eines Teils der Studie Dauer bis hin. Die abhängige Variable verwendet in einer visuellen Welt-Studie ist in der Regel der Anteil der Proben, dass Teilnehmer Fixierungen an bestimmten räumlichen Bereich der visuellen Welt in einem bestimmten Zeitfenster befinden. Um die Daten zu analysieren, muss ein Zeitfenster zunächst ausgewählt werden, oft als Perioden von Interesse. Das Zeitfenster beträgt in der Regel Zeit gesperrt, um die Präsentation von einigen sprachlichen Veranstaltungen im auditiven Input. Darüber hinaus ist die visuelle Welt mussten auch in mehreren Regionen von Interesse (ROIs), aufgeteilt jeweils mit einem oder mehreren Objekten zugeordnet ist. Eine solche Region enthält das Objekt, das richtige Verständnis der gesprochenen Sprache entspricht und somit nennt man oft den Zielbereich. Eine typische Methode, die Daten zu visualisieren ist ein Anteil der Fixierung Grundstück, wo bei jedem Lagerplatz in einem Zeitfenster, der Anteil der Proben mit einem Blick die einzelnen Regionen von Interesse sind, gemittelt über Teilnehmer und Gegenstände.

Mit einer visuellen Welt Studie gewonnenen Daten, verschiedene Forschungsfragen beantwortet werden können: eine) auf den grobkörnigen Ebene sind Teilnehmer Augenbewegungen der visuellen Welt von verschiedenen auditiven sprachlichen Input betroffen? (b) wenn es eine Wirkung, was ist die Flugbahn des Effekts im Laufe des Prozesses? Ist es einen linearen Effekt oder High-Order-Effekt? und c) eine Wirkung, dann auf die feinkörnige, wann ist der früheste zeitliche Punkt wo solche Wirkung entsteht und wie lange dauert dieser Effekt letzten?

Um die Ergebnisse statistisch zu analysieren, sollten folgende Punkte beachtet werden. Erstens ist die Antwortvariable, d.h.Anteile der Fixierungen, oben und unten (zwischen 0 und 1) begrenzt einer multinomialen Verteilung anstatt einer Normalverteilung folgen. Traditionelle statistischen Methoden basierend auf Normalverteilung wie t-Test, ANOVA und lineare Modelle (gemischt-Effekt)10, können nicht von nun an direkt genutzt werden, bis die Proportionen auf ungebundene Variablen wie z. B. mit umgewandelt wurden empirischen Logit Formel11 oder mit unbegrenzten abhängigen Variablen wie z. B. euklidische Entfernung12ersetzt worden. Statistische Methoden, die nicht erfordern, dass die Annahme der Normalverteilung, so verallgemeinerte lineare Modelle (gemischt-Effekt)13 können auch verwendet werden. Zweitens muss eine Variable für die Zeitreihen zur Erkundung der wechselnden Flugbahn des beobachteten Effekts in das Modell aufgenommen werden. Diese Zeitreihen Variable ist ursprünglich der Eye-Tracker der Probenahmestellen auf den Ausbruch der Sprache Eingang neu ausgerichtet. Da die wechselnden Flugbahn in der Regel nicht linear ist, wird eine höhere Ordnung Polynomfunktion der Zeitreihen-normalerweise in die (verallgemeinerte) linear (gemischt-Effekt) Modell, d.h.Wachstum Kurve Analysen14hinzugefügt. Darüber hinaus Endpositionen Auge in die aktuelle Aufnahmepunkt hängt stark vorherige Bemusterung Punkt(e) vor allem, wenn die Aufnahmefrequenz hoch, wodurch das Problem der Autokorrelation. Um die Autokorrelation zwischen den benachbarten Messpunkte zu reduzieren, sind die Originaldaten oft nach unten in die Stichprobe einbezogenen oder gebinnten. In den letzten Jahren nutzten die generalisierte additive Wirkung gemischte Modelle (GAMM) auch gegen die Referenzpositionen Fehler12,15,16. Die Breite der Lagerplätze variiert zwischen den verschiedenen Studien, die von mehreren Millisekunden bis hin zu mehreren hundert Millisekunden. Die schmalste bin können, eine Studie wählen wird durch die Sampling-Rate von der Eye-Tracker in der speziellen Studie verwendeten eingeschränkt. Zum Beispiel wenn eine Eye-Tracker eine Sampling-Rate von 500 Hz hat, kann nicht dann die Breite des Zeitfensters kleiner als 2 ms = 1000/500 sein. Drittens, wenn eine statistische Analyse wiederholt zu jeder Zeit bin der Perioden von Interesse angewendet wird, induziert der familywise Fehler aus diesen Mehrfachvergleiche beseitigt werden sollten. Wie zuvor beschrieben, informiert die Flugbahn Analyse den Forscher, ob die Wirkung auf die grobe Körnung Ebene beobachtet linear in Bezug auf die Veränderung der Zeit, ist aber nicht angezeigt wird, wenn der beobachtete Effekt beginnt zu entstehen, und wie lange die beobachteten der Effekt hält. Um die zeitliche Lage bestimmen, wann der beobachtete Unterschied beginnt auseinander, und um herauszufinden, die zeitliche Dauer, die die beobachtete Wirkung hält, hat eine statistische Auswertung zu jeder Zeit bin wiederholt angewendet werden. Diese Mehrfachvergleiche führen wir den sogenannten familywise Fehler, egal welche statistischen Methode verwendet wird. Die familywise Fehler wird traditionell mit Bonferroni Anpassung17korrigiert. Vor kurzem wurde eine Methode namens Nichtparametrische Permutationstest ursprünglich in Neuroimaging eingereicht18 auf die visuelle Wort Paradigma19 zu steuern für den familywise Fehler angewendet.

Das Verständnis für einige gesprochene Sprache von TeilnehmerInnen Augenbewegungen der visuellen Welt ableiten wollen Forscher mit dem Paradigma der visuellen Welt. Um die Gültigkeit dieser Abzug zu gewährleisten, sollten andere Faktoren, die möglicherweise Einfluss auf die Augenbewegungen werden entweder ausgeschlossen oder gesteuert. Die folgenden zwei Faktoren gehören zu den gebräuchlichsten, die berücksichtigt werden müssen. Der erste Faktor beinhaltet einige systematische Muster in Teilnehmer erklärende Fixierungen unabhängig von der Sprache eingeben, wie z. B. die Tendenz, in der oberen linken Quadrat der visuellen Welt und bewegliche Augen in horizontaler Richtung wird einfacher als in fixieren vertikaler Richtung etc.12,20 , um sicherzustellen, dass die beobachteten Fixierung Muster beziehen sich auf die Objekte, die nicht zu den räumlichen Orten, wo sich die Gegenstände befinden, die räumliche Position eines Objekts ausgeglichen werden sollte in verschiedenen Studien oder über andere Teilnehmer. Der zweite Faktor, der Teilnehmer Augenbewegungen auswirken kann ist die grundlegende Bild Eigenschaften der Objekte in der visuellen Welt, wie z. B. Helligkeit Kontrast, Farbe und Edge Ausrichtung, unter anderem21. Um dieses Potenzial verwirrende zu diagnostizieren, die visuelle Darstellung wird normalerweise dargestellt, vor dem Beginn der gesprochenen Sprache oder vor dem Beginn der kritischen akustischen Markierung der gesprochenen Sprache, für ca. 1000 ms den zeitlichen Zeitraum vom Beginn des der Testbild zum Ausbruch von Test Audio, die Sprache eingeben oder die Disambiguierung Punkt der Sprache Eingang hat noch nicht gehört. Keinen Unterschied zwischen unterschiedlichen Bedingungen beobachtet sollte zu anderen Störfaktoren wie die visuelle Anzeige schlechthin, anstatt die Sprache Eingang abgeleitet werden. Von nun an bereitstellen Augenbewegungen beobachtet in dieser Vorschau einer Basis zur Bestimmung der Wirkung von den sprachlichen Input. Diese Vorschauzeitraum kann auch Teilnehmer mit der optischen Anzeige vertraut zu machen und die systematische Vorspannung des erklärenden Fixierungen reduzieren, wenn die gesprochene Sprache präsentiert wird.

Um zu veranschaulichen, wie eine typische Eyetracking-Studie mit dem visuellen Welt Paradigma durchgeführt wird, beschreibt das folgende Protokoll ein Experiment adaptiert von L. Zhan17 , die Online-Verarbeitung von semantisch komplexe Aussagen, d. h. zu erkunden disjunktive Aussagen (S1 oder S2), konjunktive Aussagen (S1 und S2) und aber-Aussagen (S1, aber nicht-S2). In gewöhnlichen Konservierung sind die Informationen, die einige Äußerungen zum Ausdruck gebrachten wirklich stärker als seine wörtliche Bedeutung. Disjunktive Aussagen wie Xiaoming Box enthält eine Kuh oder ein Hahn sind solche Äusserungen. Logisch, die disjunktive Aussage ist wahr, solange die zwei Disjuncts Xiaoming Box enthält eine Kuh und Xiaoming Box enthält einen Hahn nicht beide sind falsch. Daher ist die disjunktive Aussage wahr, wenn die zwei Disjuncts beide True sind wo ist die entsprechende konjunktive Aussage Xiaoming Box enthält eine Kuh und ein Hahn auch wahr. Im gewöhnlichen Gespräch, jedoch hören, dass die disjunktive Aussage oft deutet darauf hin, dass die entsprechende konjunktive Aussage falsch ist (skalare Implicature); und schlägt vor, dass die Wahrheitswerte der beiden Disjuncts durch den Lautsprecher (Unwissenheit Inferenz) unbekannt sind. Konten in der Literatur unterscheiden sich in ob zwei Schlüsse grammatische oder pragmatische Prozesse22,23,24,25,26 sind. Das Experiment zeigt, wie die visuelle Welt Paradigma verwendet werden kann, zwischen diesen Konten durch die Erforschung der Online-Verarbeitung von drei komplexe Anweisungen erledigt.

Protocol

Alle Probanden müssen fundierten schriftlichen Zustimmung vor der Verabreichung der experimentelle Protokolle geben. Alle Verfahren, Einverständniserklärungen und experimentelles Protokoll wurden von der Ethikkommission der Forschung von der Beijing Language and Culture University angenommen. Hinweis: Eine Verständnis-Studie mit dem visuellen Welt Paradigma normalerweise besteht aus den folgenden Schritten: Einführung der theoretischen Probleme, erkundet zu werden; Bilden Sie ein experime…

Representative Results

In Abbildung 4sind Teilnehmer Verhaltensreaktionen zusammengefasst. Wie wir bereits erwähnt, ist die richtige Antwort auf eine konjunktive Erklärung (S1 und S2) großen Feld Öffnen, z. B. Box A in Abbildung 1. Die richtige Antwort auf eine aber-Anweisung (S1 aber nicht S2) ist das kleine Feld Öffnen, enthält das erste genannten Tier wie Box D in Abbildung 1. Kritisch, …

Discussion

Um eine visuelle Welt Studie durchzuführen, gibt es einige wichtige Schritte zu folgen. Erstens wollen die Forscher die Interpretation der auditiv präsentiert Sprache über Teilnehmer Augenbewegungen der visuellen Welt abzuleiten. Von nun an sollte bei der Gestaltung des Layouts von visuellen Reizen, die Eigenschaften der Augenbewegungen in eine natürliche Aufgabe, die Teilnehmer Augenbewegungen betreffen gesteuert werden. Die Wirkung der gesprochenen Sprache auf Teilnehmer Augenbewegungen kann dann erkannt werden. Zw…

Disclosures

The authors have nothing to disclose.

Acknowledgements

Diese Forschung wurde von Science Foundation der Beijing Language and Cultural University unter die grundlegenden Forschungsmittel für die zentralen Universitäten (Genehmigung Nr. 15YJ050003) unterstützt.

Materials

Pixelmator Pixelmator Team http://www.pixelmator.com/pro/ image editing app
Praat Open Sourse http://www.fon.hum.uva.nl/praat/ Sound analyses and editting software
Eyelink 1000plus SR-Research, Inc https://www.sr-research.com/products/eyelink-1000-plus/ remote infrared eye tracker 
Experimental Builder SR-Research, Inc https://www.sr-research.com/experiment-builder/ eye tracker software 
Data Viewer SR-Research, Inc https://www.sr-research.com/data-viewer/ eye tracker software 
R Open Sourse https://www.r-project.org free software environment for statistical computing and graphics

References

  1. Tanenhaus, M. K., Spivey-Knowlton, M. J., Eberhard, K. M., Sedivy, J. C. Integration of visual and linguistic information in spoken language comprehension. Science. 268 (5217), 1632-1634 (1995).
  2. Cooper, R. M. The control of eye fixation by the meaning of spoken language: A new methodology for the real-time investigation of speech perception, memory, and language processing. Cognitive Psychology. 6 (1), 84-107 (1974).
  3. Salverda, A. P., Tanenhaus, M. K., de Groot, A. M. B., Hagoort, P. . Research methods in psycholinguistics and the neurobiology of language: A practical guide. , (2017).
  4. Huettig, F., Rommers, J., Meyer, A. S. Using the visual world paradigm to study language processing: A review and critical evaluation. Acta Psychologica. 137 (2), 151-171 (2011).
  5. Meyer, A. S., Sleiderink, A. M., Levelt, W. J. M. Viewing and naming objects: Eye movements during noun phrase production. Cognition. 66 (2), B25-B33 (1998).
  6. Griffin, Z. M., Bock, K. What the eyes say about speaking. Psychological Science. 11 (4), 274-279 (2000).
  7. Young, L. R., Sheena, D. Survey of eye movement recording methods. Behavior Research Methods & Instrumentation. 7 (5), 397-429 (1975).
  8. Conklin, K., Pellicer-Sánchez, A., Carrol, G. . Eye-tracking: A guide for applied linguistics research. , (2018).
  9. Duchowski, A. . Eye tracking methodology: Theory and practice. , (2007).
  10. Baayen, R. H., Davidson, D. J., Bates, D. M. Mixed-effects modeling with crossed random effects for subjects and items. Journal of Memory and Language. 59 (4), 390-412 (2008).
  11. Barr, D. J. Analyzing ‘visual world’ eyetracking data using multilevel logistic regression. Journal of Memory and Language. 59 (4), 457-474 (2008).
  12. Nixon, J. S., van Rij, J., Mok, P., Baayen, R. H., Chen, Y. The temporal dynamics of perceptual uncertainty: eye movement evidence from Cantonese segment and tone perception. Journal of Memory and Language. 90, 103-125 (2016).
  13. Bolker, B. M., et al. Generalized linear mixed models: A practical guide for ecology and evolution. Trends in Ecology and Evolution. 24 (3), 127-135 (2009).
  14. Mirman, D., Dixon, J. A., Magnuson, J. S. Statistical and computational models of the visual world paradigm: Growth curves and individual differences. Journal of Memory and Language. 59 (4), 475-494 (2008).
  15. Baayen, H., Vasishth, S., Kliegl, R., Bates, D. The cave of shadows: Addressing the human factor with generalized additive mixed models. Journal of Memory and Language. 94, 206-234 (2017).
  16. Baayen, R. H., van Rij, J., de Cat, C., Wood, S., Speelman, D., Heylen, K., Geeraerts, D. . Mixed-Effects Regression Models in Linguistics. 4, 49-69 (2018).
  17. Zhan, L. Scalar and ignorance inferences are both computed immediately upon encountering the sentential connective: The online processing of sentences with disjunction using the visual world paradigm. Frontiers in Psychology. 9, (2018).
  18. Maris, E., Oostenveld, R. Nonparametric statistical testing of EEG- and MEG-data. Journal of Neuroscience Methods. 164 (1), 177-190 (2007).
  19. Barr, D. J., Jackson, L., Phillips, I. Using a voice to put a name to a face: The psycholinguistics of proper name comprehension. Journal of Experimental Psychology-General. 143 (1), 404-413 (2014).
  20. Dahan, D., Tanenhaus, M. K., Salverda, A. P., van Gompel, R. P. G., Fischer, M. H., Murray, W. S., Hill, R. L. . Eye movements: A window on mind and brain. , 471-486 (2007).
  21. Parkhurst, D., Law, K., Niebur, E. Modeling the role of salience in the allocation of overt visual attention. Vision Research. 42 (1), 107-123 (2002).
  22. Grice, H. P., Cole, P., Morgan, J. L. Vol. 3 Speech Acts. Syntax and semantics. , 41-58 (1975).
  23. Sauerland, U. Scalar implicatures in complex sentences. Linguistics and Philosophy. 27 (3), 367-391 (2004).
  24. Chierchia, G. Scalar implicatures and their interface with grammar. Annual Review of Linguistics. 3 (1), 245-264 (2017).
  25. Fox, D., Sauerland, U., Stateva, P. . Presupposition and Implicature in Compositional Semantics. , 71-120 (2007).
  26. Meyer, M. C. . Ignorance and grammar. , (2013).
  27. SR Research Ltd. . SR Research Experiment Builder User Manual (Version 2.1.140). , (2017).
  28. SR Research Ltd. . EyeLink® 1000 Plus Technical Specifications. , (2017).
  29. SR Research Ltd. . EyeLink-1000-Plus-Brochure. , (2017).
  30. SR Research Ltd. . EyeLink® 1000 Plus User Manual (Version 1.0.12). , (2017).
  31. SR Research Ltd. . EyeLink® Data Viewer User’s Manual (Version 3.1.97). , (2017).
  32. McQueen, J. M., Viebahn, M. C. Tracking recognition of spoken words by tracking looks to printed words. The Quarterly Journal of Experimental Psychology. 60 (5), 661-671 (2007).
  33. Altmann, G. T. M., Kamide, Y. Incremental interpretation at verbs: restricting the domain of subsequent reference. Cognition. 73 (3), 247-264 (1999).
  34. Altmann, G. T. M., Kamide, Y. The real-time mediation of visual attention by language and world knowledge: Linking anticipatory (and other) eye movements to linguistic processing. Journal of Memory and Language. 57 (4), 502-518 (2007).
  35. Snedeker, J., Trueswell, J. C. The developing constraints on parsing decisions: The role of lexical-biases and referential scenes in child and adult sentence processing. Cognitive Psychology. 49 (3), 238-299 (2004).
  36. Allopenna, P. D., Magnuson, J. S., Tanenhaus, M. K. Tracking the time course of spoken word recognition using eye movements: Evidence for continuous mapping models. Journal of Memory and Language. 38 (4), 419-439 (1998).
  37. Zhan, L., Crain, S., Zhou, P. The online processing of only if and even if conditional statements: Implications for mental models. Journal of Cognitive Psychology. 27 (3), 367-379 (2015).
  38. Zhan, L., Zhou, P., Crain, S. Using the visual-world paradigm to explore the meaning of conditionals in natural language. Language, Cognition and Neuroscience. 33 (8), 1049-1062 (2018).
  39. Brown-Schmidt, S., Tanenhaus, M. K. Real-time investigation of referential domains in unscripted conversation: A targeted language game approach. Cognitive Science. 32 (4), 643-684 (2008).
  40. Fernald, A., Pinto, J. P., Swingley, D., Weinberg, A., McRoberts, G. W. Rapid gains in speed of verbal processing by infants in the 2nd year. Psychological Science. 9 (3), 228-231 (1998).
  41. Trueswell, J. C., Sekerina, I., Hill, N. M., Logrip, M. L. The kindergarten-path effect: studying on-line sentence processing in young children. Cognition. 73 (2), 89-134 (1999).
  42. Zhou, P., Su, Y., Crain, S., Gao, L. Q., Zhan, L. Children’s use of phonological information in ambiguity resolution: a view from Mandarin Chinese. Journal of Child Language. 39 (4), 687-730 (2012).
  43. Zhou, P., Crain, S., Zhan, L. Grammatical aspect and event recognition in children’s online sentence comprehension. Cognition. 133 (1), 262-276 (2014).
  44. Zhou, P., Crain, S., Zhan, L. Sometimes children are as good as adults: The pragmatic use of prosody in children’s on-line sentence processing. Journal of Memory and Language. 67 (1), 149-164 (2012).
  45. Moscati, V., Zhan, L., Zhou, P. Children’s on-line processing of epistemic modals. Journal of Child Language. 44 (5), 1025-1040 (2017).
  46. Helfer, K. S., Staub, A. Competing speech perception in older and younger adults: Behavioral and eye-movement evidence. Ear and Hearing. 35 (2), 161-170 (2014).
  47. Dickey, M. W., Choy, J. W. J., Thompson, C. K. Real-time comprehension of wh-movement in aphasia: Evidence from eyetracking while listening. Brain and Language. 100 (1), 1-22 (2007).
  48. Magnuson, J. S., Nusbaum, H. C. Acoustic differences, listener expectations, and the perceptual accommodation of talker variability. Journal of Experimental Psychology-Human Perception and Performance. 33 (2), 391-409 (2007).
  49. Reinisch, E., Jesse, A., McQueen, J. M. Early use of phonetic information in spoken word recognition: Lexical stress drives eye movements immediately. Quarterly Journal of Experimental Psychology. 63 (4), 772-783 (2010).
  50. Chambers, C. G., Tanenhaus, M. K., Magnuson, J. S. Actions and affordances in syntactic ambiguity resolution. Journal of Experimental Psychology-Learning Memory and Cognition. 30 (3), 687-696 (2004).
  51. Tanenhaus, M. K., Trueswell, J. C., Trueswell, J. C., Tanenhaus, M. K. . Approaches to Studying World-Situated Language Use: Bridging the Language-as-Product and Language-as-Action Traditions. , (2005).

Play Video

Cite This Article
Zhan, L. Using Eye Movements Recorded in the Visual World Paradigm to Explore the Online Processing of Spoken Language. J. Vis. Exp. (140), e58086, doi:10.3791/58086 (2018).

View Video