Summary

음성된 언어의 온라인 처리를 탐험 시각적인 세계 패러다임에 기록 하는 눈 움직임을 사용 하 여

Published: October 13, 2018
doi:

Summary

그들은을 듣고는 또는 음성된 언어를 말하기로 시각적인 세계 패러다임 visual 작업 영역에서 참가자의 눈 움직임을 모니터링 합니다. 이 패러다임 조사 psycholinguistic 질문, 분리형 문과 같은 의미가 복잡 한 문을 포함 하 여 광범위의 온라인 처리를 사용할 수 있습니다.

Abstract

전형적인 눈 추적 연구 시각적인 세계 패러다임을 사용 하 여, 참가자의 눈 움직임을 개체 또는 visual 작업 영역에서 그림 참가자 생산 또는 동시 시각을 설명 하는 음성된 언어를 이해는 눈 추적기를 통해 기록 됩니다. 세계입니다. 이 패러다임의 인구, 읽을 수 없습니다 또는 누구 공공연히 preliterate 어린이, 노인, 어른과 환자 같은 행동 그들의 응답을 줄 수 없는 포함 하 여 넓은 범위에서 사용할 수 있는 높은 다양성이 있다. 더 중요 한 것은, 패러다임의 음성 신호 잘 배어 든된 조작에 매우 민감한 이며 공부 언어 이해 잘 배어 든된 음향 소리 등 여러 수준에서 항목을 대부분의 온라인 처리를 사용할 수 있습니다. 기능, 단어, 속성 및 언어 구조 이 문서에서 설명 하는 프로토콜 어떻게 일반적인 시각 세계 눈 추적 연구 실시, 어떻게 어떤 의미가 복잡 한 문의 온라인 처리 시각적인 세계 패러다임으로 탐험 수 있습니다 보여 주는 예제와 함께 보여 줍니다.

Introduction

음성된 언어는 빠르고, 지속적인 정보 흐름을 바로 사라집니다. 실험적으로 시간 연구, 음성 신호를 빠르게 변경 하는 도전 이다. 이 문제를 극복 하기 위해 시각적인 세계 패러다임에 기록 된 안구의 움직임을 사용할 수 있습니다. 전형적인 눈 추적 연구 시각적인 세계 패러다임을 사용 하 여, 그들은 듣고, 또는 생산, 음성된 언어 영상 세계1의 내용을 묘사한 참가자의 눈 움직임 디스플레이에서 사진 또는 visual 작업 영역에서 실제 개체는 모니터링 ,2,,34. 기본적인 논리 또는 연결 가설,이 패러다임의 뒤에 이해 또는 계획 한 말 (공공연히 또는 은밀 하 게) 이동 합니다 시각적 세계에 특정 개체에 참가자의 시각적 주의 이다. 이 주의 변화 시야 비전으로 참석된 영역을가지고 saccadic 눈 운동 시작 하는 높은 확률을 가질 것 이다. 이 패러다임 연구 개체 또는 시각에 있는 그림에 saccadic 눈 운동에 의해 측정 된 음성 신호에서 일부 음향 랜드마크에 관하여 어떤 시간 시점에서 참가자의 시각적 관심에 변화 발생, 결정 하려는 세계입니다. 음성 신호에 관하여 saccadic 눈 운동 시작은 언제 그리고 어디 다음 온라인 언어 처리를 추론 하는 데 사용 됩니다. 시각적인 세계 패러다임 음성된 언어 이해1,2 과 생산5,6을 사용할 수 있습니다. 이 방법론 문서 이해 연구에 집중할 것 이다. 독 해 공부에 시각적인 세계 패러다임, 영상 디스플레이에 움직임은 그들이 말한 발언 영상 디스플레이 대 한 얘기를 들어 서 모니터링 참가자의 눈을 사용 하 여.

역사에서 다른 눈 추적 시스템 설계 되었습니다. 간단한, 가장 저렴 하 고 가장 휴대용 시스템은 그냥 일반 비디오 카메라, 참가자의 눈의 이미지를 기록 하. 안구의 움직임 다음 비디오 녹화의 프레임에 의해 심사를 통해 수동으로 코딩 됩니다. 그러나, 이러한 한 눈-추적의 샘플링 속도 상대적으로 낮은, 그리고 코딩 절차 시간이 소요 됩니다. 따라서, 현대 상업적인 눈 추적 시스템 일반적으로 그것의 궤도7,,89눈의 방향을 측정 하는 광학 센서를 사용 합니다. 현대 상업적인 눈 추적 시스템의 작동 방식을 이해 하려면 다음 사항은 고려해 야 합니다. 먼저, 올바르게 시야 비전, 적외선 조명 기의 방향을 측정 (파장 주위와 일반적으로 780-880 nm) 따라 또는 distinguishably 밝은 또는 어두운 눈동자의 이미지를 만드는 카메라의 광 축에서 일반적으로 누워 주변의 아이리스 보다. 이미지의 눈동자 및 눈동자 각 막 반사 (일반적으로 첫 번째 Purkinje 이미지)의 다음 궤도에 눈의 방향을 계산 하는 데 사용 됩니다. 둘째, 영상 세계에 시선 위치는 시각적 세계에 관하여 머리 방향에 뿐만 아니라 머리에 관하여 눈 방향에 뿐만 아니라 실제로 파견. 정확 하 게 유추할 눈 방향에서 관계의 시선, 광원 및 카메라 눈 추적의 참가자의 머리 (눈 추적자 머리 탑재)에 대해 고정 또는 시각적 세계에 대해 고정 (테이블 장착 또는 원격 눈-추적)입니다. 셋째, 참가자의 머리 방향 중 영상 세계에 관하여 고정 해야 합니다 또는 참가자의 머리는 자유롭게 이동 하는 경우 보상 계산. 원격 눈 추적자 머리 무료-이동 모드에서 사용 될 때 참가자의 머리 위치는 일반적으로 참가자의이 마에 작은 스티커를 배치 하 여 기록 됩니다. 머리 방향 다음 계산 영상 세계의 시선 위치를 검색 하 눈 방향에서 뺍니다. 넷째, 교정과 검증 프로세스 다음 시각적 세계에서 관계의 시선 앞에 눈의 방향을 지도 하 요구 된다. 교정 과정에서 알려진된 대상 포인트에서 참가자의 고정 샘플 원시 눈 데이터 시선 시각적 세계에서 위치를에 기록 됩니다. 유효성 검사 프로세스에서 참가자 보정 과정으로 동일한 대상 포인트 되 게 됩니다. 보정된 결과에서 계산된 고정 위치와 영상 세계에 집착된 하는 대상의 실제 위치 사이 기존 하는 차이 다음 교정의 정확도 판단 하는 데 사용 됩니다. 추가 매핑 프로세스의 정확성을 재확인, 드리프트 검사 일반적으로 적용 되는 단일 고정 대상 계산된 고정 위치와 실제 위치 사이의 차이 측정 하는 참가자에 게 제공 됩니다, 각 재판에는 현재 대상입니다.

영상 세계 연구의 기본 데이터의 전체 또는 일부의 시험 기간에 이르기까지 눈 추적기의 샘플링 레이트에서 기록 영상 세계에 시선 위치 시내 이다. 영상 세계 연구에 사용 된 종속 변수는 일반적으로 특정 시간대에 걸쳐 참가자 fixations 영상 세계에 특정 공간 영역에 위치는 샘플의 비율. 데이터를 분석 하려면 시간 창은 첫째로 선택할 수 관심의 기간이 라고도 한다. 시간대는 일반적으로 시간 청각 입력에서 일부 언어 이벤트의 프레 젠 테이 션에 잠겨. 또한, 영상 세계의 관심사 (ROIs), 각각의 하나 이상의 개체와 연결 된 여러 영역으로 분할 하 또한 필요 합니다. 같은 지역 한 음성된 언어의 올바른 이해에 해당 하는 개체를 포함 하 고 따라서 대상 영역 이라고 자주. 데이터를 시각화 하는 일반적인 방법은 어디 시간 창에서 각 빈에 관심의 각 지역에 얼굴로 샘플 비율 평균 참가자 및 항목 고정 비율 계획입니다.

영상 세계 연구에서 얻은 데이터를 사용 하 여, 다양 한 연구 질문 응답 될 수 있다: a) 성긴 수준에 다른 청각 언어 입력에 의해 영향을 받는 영상 세계에 참가자의 눈 움직임은? b) 경우 효과, 재판의 과정을 통해 효과의 궤적을 무엇입니까? 그것은 선형 효과 또는 상위 효과? 그리고 c) 효과, 세부적인 수준에서 다음 경우 때 이며 초기 일시적인 포인트 같은 효과 나온다이 효과 얼마나 마지막?

결과 통계적으로 분석 하려면 다음 사항은 고려해 야 합니다. 첫째, 응답 변수, , fixations의 비율은 아래와 위의 제한 (0과 1 사이)는 정규 분포 보다는 다항 분포를 따를 것 이다. 이제부터, 전통적인 통계적 방법 t 시험, ANOVA, 선형 (혼합 효과) 모델10, 등 정규 분포에 따라 수 없습니다 직접 활용 비율와 같은 무제한 변수를 변형 되었습니다 때까지 경험적 로짓 수식11 유클리드 거리12같은 종속 변수를 무제한으로 대체 되었습니다. 이러한 정규 분포의 가정을 일반화 선형 (혼합 효과) 모델13 를 필요로 하지 않는 통계적 기법 또한 사용할 수 있습니다. 둘째, 관찰 된 효과의 변화 궤적을 탐구 하는 시계열을 나타내는 변수 모델에 추가할 수 있다. 이 시계열 변수는 원래 눈 추적자 입력 언어의 발병에 realigned 포인트 샘플링의. 이후 변화 궤적 일반적으로 선형 않다, 시간 시리즈의 높은 순서 다항식 함수 (일반화 된) 선형 (혼합 효과) 모델, , 성장 곡선 분석14에 일반적으로 추가 됩니다. 또한, 현재 샘플링 포인트에서 참가자의 눈 위치는 매우 의존 이전 샘플링 포인트, 녹음 주파수가 높은 경우에 특히 자기 상관의 문제에서 발생 합니다. 인접 한 샘플링 포인트 사이의 상관을 줄이기 위해, 원본 데이터는 종종 다운 샘플링 또는 범주화 된. 최근 몇 년 동안, 일반적인된 첨가제 혼합된 효과 모델 (GAMM) 또한 autocorrelated 오류12,,1516를 해결 하기 위해 사용 되었습니다. 쓰레기통의 폭 몇 밀리초에서 몇 백 밀리초 까지의 다른 연구 마다 다릅니다. 연구를 선택할 수 있습니다 하는 좁은 빈의 눈 추적자 특정 연구에 사용 된 샘플링 속도 의해 제한 됩니다. 예를 들어 눈 추적자는 500 Hz의 샘플링 속도 하는 경우 다음 시간 창의 너비 보다 2 ms = 1000/500 작을 수 없습니다. 셋째, 통계 분석은 반복적으로에 적용 하면 각 시간 빈 관심의 기간, familywise 오류 여러 비교를 태 클 한다 이들에서 유도 한다. 우리가 앞에서 설명한, 궤적 분석 알리고 연구원 성긴 수준에 관찰 하는 효과 시간의 변화에 관하여 선형 인지 관찰된 효과 등장 하기 시작 하는 때 표시 되지 않습니다 하지만 얼마나 오래 관찰 효과 지속. 관찰 된 차이 갈리는, 일시적인 기간 관찰 된 효과 지속 기간을 파악 하 고 시작할 때 임시 위치를 결정, 통계 분석 각 시간 빈에 반복적으로 적용할 수 있다. 이러한 여러 비교 통계 방법을 사용 하 든 소위 familywise 오류를 소개 합니다. Familywise 오류는 Bonferroni 조정17전통적으로 수정 되었습니다. 최근에, 원래 neuroimaging18 에 신청에서 사용 하는 비패라메트릭 순열 테스트 라는 메서드 familywise 오류에 대 한 제어를 시각적 단어 패러다임19 에 적용 되었습니다.

연구원은 시각적인 세계 패러다임을 사용 하 여 시각적 세계에 참가자의 눈 움직임에서 음성된 언어의 이해를 유추 하고자 합니다. 이 공제의 유효성을 보장 하기 위해, 아마도 안구의 움직임에 영향을 주는 다른 요인 배제 하거나 제어 되어야 한다. 다음 두 가지 요소를 고려해 야 할 일반적인 것 들 중입니다. 첫 번째 요인은 포함 한다 참가자 들 설명 fixations 입력에 보다 쉽게 되 고 수평 한 방향에서의 시각적 세계, 그리고 움직이는 눈 quadrat를 왼쪽 상단에 흥분 하는 경향이 같은 언어에 어떤 체계적인 패턴을 수직 방향, 관찰된 고정 패턴 개체에 관련 된, 아니라 개체 위치는 공간 위치에 개체의 공간적 위치 한다 counterbalanced 될 다는 것을 확인 하는 등12,20 다른 실험에서 또는 다른 참가자 간에. 참가자의 눈 움직임에 영향을 미칠 수 있습니다 두 번째 요소는 다른 사람의 사이에서 휘도 대비, 색상 및 가장자리 방향 등 시각적 세계에서 개체의 기본 이미지 기능21. 진단 하려면이 잠재적인 혼란, 시각적 디스플레이 제시 일반적으로 말한 언어의 발병 이전 또는 발병의 임시 기간 동안 약 1000 씨에 대 한 음성된 언어의 중요 한 음향 표시의 발병 전에 테스트 이미지 테스트 오디오, 입력 언어 또는 입력 언어의 동음이의 포인트의 발병에는 아직 듣고 되어 있다. 다른 조건 사이 관찰 하는 어떤 다름 든 지 입력 하는 언어 보다 시각적 디스플레이 등 다른 혼동 요인 라기보다, 추론 한다. 이제부터,이 미리 보기 기간에 관찰 하는 눈 움직임 언어 입력의 효과 결정 하기 위한 기준을 제공 합니다. 이 미리 보기 기간 참가자를 얻을 시각적 디스플레이 익숙하게 하 고 말한 언어 제시 설명 fixations의 체계적인 바이어스를 줄일 수 있습니다.

전형적인 눈 추적 연구 시각적인 세계 패러다임을 사용 하 여 실시 하는 방법을 설명 하기 위해 다음 프로토콜 L. Zhan17 의미상으로 복잡 한 계산, 즉, 의 온라인 처리를 탐험에서 적응 하는 실험을 설명 합니다. 분리형 문 (S1 또는 S2), 접속 어 문 (S1 및 S2), 그리고 -문 (S1 하지만 하지 S2). 일반 절약, 일부 발언에 의해 표현 된 정보에서는 실제로 그것의 문자 적 의미 보다 더 강한입니다. Xiaoming의 상자 포함 암소 또는 수 탉 처럼 분리형 문은 같은 발언입니다. 논리적으로, 분리형 문이 사실이 두 disjuncts Xiaoming의 상자 포함 암소와 Xiaoming의 상자 포함 수 탉은 모두 거짓. 따라서, 분리형 문을 두 disjuncts는 모두 true Xiaoming의 상자는 암소와 수 탉을 포함 하는 해당 접속 어 문이 사실이 또한 사실 이다. 그러나 일반 대화에서, 분리형 문을 자주 나왔다 해당 접속 어 문이 잘못 듣고 (스칼라 implicature); 두 개의 disjuncts의 진리 값 (무지 유추) 스피커에 의해 알려지지 않은 것을 암시 한다. 문학에서 계정 두 추론 문법 또는 실용적인 프로세스22,23,,2425,26인지에 차이가 있습니다. 실험 3 개의 복잡 한 계산의 온라인 처리를 탐색 하 여 이러한 계정 간에 판결에 시각적인 세계 패러다임을 사용 하는 방법을 보여 줍니다.

Protocol

모든 과목은 실험 프로토콜의 관리 전에 정보 서 면된 동의 주어 야 한다. 모든 절차, 동의 형태, 및 실험 프로토콜 베이징 언어와 문화 대학 연구 윤리 위원회에 의해 승인 되었다. 참고: 일반적으로 시각적인 세계 패러다임을 사용 하 여 이해 연구는 다음 단계로 구성 됩니다: 탐험; 이론적인 문제 소개 형성 된 실험적인 디자인; 준비 하는 시각 및 청각 자극; 실험 디자인에 관…

Representative Results

참가자의 행동 응답 그림 4에 요약 되어 있습니다. 우리가 앞에서 설명한, 접속 어 문 (S1 및 S2)에 대 한 올바른 응답 상자 A 그림1과 같은 큰 열기 상자입니다. 하지만올바른 응답-문 (S1 하지만 하지 S2) 작은 열기 상자 상자 D 그림 1에서 같이 첫 번째 언급 한 동물을 포함 하는. 비판적, 분…

Discussion

시각적 세계 연구를 실시, 따라 몇 가지 중요 한 단계가 있다. 첫째, 연구원은 시각적 세계에 참가자의 눈 움직임을 통해 청각적 표시 언어의 해석으로 추정할 것입니다. 이제부터, 시각적 자극의 레이아웃 디자인, 자연 작업 참가자의 눈 움직임에 영향을 줄 눈 움직임의 속성을 제어 한다. 참가자의 눈 움직임에 말한 언어의 효과 다음 인식할 수 있습니다. 음성된 언어에서 두 번째, 음향 신호는 과…

Disclosures

The authors have nothing to disclose.

Acknowledgements

이 연구는 과학 재단 베이징 언어와 문화 대학 중앙 대학 (승인 번호 15YJ050003)에 대 한 근본적인 연구 자금에 의해 지원 되었다.

Materials

Pixelmator Pixelmator Team http://www.pixelmator.com/pro/ image editing app
Praat Open Sourse http://www.fon.hum.uva.nl/praat/ Sound analyses and editting software
Eyelink 1000plus SR-Research, Inc https://www.sr-research.com/products/eyelink-1000-plus/ remote infrared eye tracker 
Experimental Builder SR-Research, Inc https://www.sr-research.com/experiment-builder/ eye tracker software 
Data Viewer SR-Research, Inc https://www.sr-research.com/data-viewer/ eye tracker software 
R Open Sourse https://www.r-project.org free software environment for statistical computing and graphics

References

  1. Tanenhaus, M. K., Spivey-Knowlton, M. J., Eberhard, K. M., Sedivy, J. C. Integration of visual and linguistic information in spoken language comprehension. Science. 268 (5217), 1632-1634 (1995).
  2. Cooper, R. M. The control of eye fixation by the meaning of spoken language: A new methodology for the real-time investigation of speech perception, memory, and language processing. Cognitive Psychology. 6 (1), 84-107 (1974).
  3. Salverda, A. P., Tanenhaus, M. K., de Groot, A. M. B., Hagoort, P. . Research methods in psycholinguistics and the neurobiology of language: A practical guide. , (2017).
  4. Huettig, F., Rommers, J., Meyer, A. S. Using the visual world paradigm to study language processing: A review and critical evaluation. Acta Psychologica. 137 (2), 151-171 (2011).
  5. Meyer, A. S., Sleiderink, A. M., Levelt, W. J. M. Viewing and naming objects: Eye movements during noun phrase production. Cognition. 66 (2), B25-B33 (1998).
  6. Griffin, Z. M., Bock, K. What the eyes say about speaking. Psychological Science. 11 (4), 274-279 (2000).
  7. Young, L. R., Sheena, D. Survey of eye movement recording methods. Behavior Research Methods & Instrumentation. 7 (5), 397-429 (1975).
  8. Conklin, K., Pellicer-Sánchez, A., Carrol, G. . Eye-tracking: A guide for applied linguistics research. , (2018).
  9. Duchowski, A. . Eye tracking methodology: Theory and practice. , (2007).
  10. Baayen, R. H., Davidson, D. J., Bates, D. M. Mixed-effects modeling with crossed random effects for subjects and items. Journal of Memory and Language. 59 (4), 390-412 (2008).
  11. Barr, D. J. Analyzing ‘visual world’ eyetracking data using multilevel logistic regression. Journal of Memory and Language. 59 (4), 457-474 (2008).
  12. Nixon, J. S., van Rij, J., Mok, P., Baayen, R. H., Chen, Y. The temporal dynamics of perceptual uncertainty: eye movement evidence from Cantonese segment and tone perception. Journal of Memory and Language. 90, 103-125 (2016).
  13. Bolker, B. M., et al. Generalized linear mixed models: A practical guide for ecology and evolution. Trends in Ecology and Evolution. 24 (3), 127-135 (2009).
  14. Mirman, D., Dixon, J. A., Magnuson, J. S. Statistical and computational models of the visual world paradigm: Growth curves and individual differences. Journal of Memory and Language. 59 (4), 475-494 (2008).
  15. Baayen, H., Vasishth, S., Kliegl, R., Bates, D. The cave of shadows: Addressing the human factor with generalized additive mixed models. Journal of Memory and Language. 94, 206-234 (2017).
  16. Baayen, R. H., van Rij, J., de Cat, C., Wood, S., Speelman, D., Heylen, K., Geeraerts, D. . Mixed-Effects Regression Models in Linguistics. 4, 49-69 (2018).
  17. Zhan, L. Scalar and ignorance inferences are both computed immediately upon encountering the sentential connective: The online processing of sentences with disjunction using the visual world paradigm. Frontiers in Psychology. 9, (2018).
  18. Maris, E., Oostenveld, R. Nonparametric statistical testing of EEG- and MEG-data. Journal of Neuroscience Methods. 164 (1), 177-190 (2007).
  19. Barr, D. J., Jackson, L., Phillips, I. Using a voice to put a name to a face: The psycholinguistics of proper name comprehension. Journal of Experimental Psychology-General. 143 (1), 404-413 (2014).
  20. Dahan, D., Tanenhaus, M. K., Salverda, A. P., van Gompel, R. P. G., Fischer, M. H., Murray, W. S., Hill, R. L. . Eye movements: A window on mind and brain. , 471-486 (2007).
  21. Parkhurst, D., Law, K., Niebur, E. Modeling the role of salience in the allocation of overt visual attention. Vision Research. 42 (1), 107-123 (2002).
  22. Grice, H. P., Cole, P., Morgan, J. L. Vol. 3 Speech Acts. Syntax and semantics. , 41-58 (1975).
  23. Sauerland, U. Scalar implicatures in complex sentences. Linguistics and Philosophy. 27 (3), 367-391 (2004).
  24. Chierchia, G. Scalar implicatures and their interface with grammar. Annual Review of Linguistics. 3 (1), 245-264 (2017).
  25. Fox, D., Sauerland, U., Stateva, P. . Presupposition and Implicature in Compositional Semantics. , 71-120 (2007).
  26. Meyer, M. C. . Ignorance and grammar. , (2013).
  27. SR Research Ltd. . SR Research Experiment Builder User Manual (Version 2.1.140). , (2017).
  28. SR Research Ltd. . EyeLink® 1000 Plus Technical Specifications. , (2017).
  29. SR Research Ltd. . EyeLink-1000-Plus-Brochure. , (2017).
  30. SR Research Ltd. . EyeLink® 1000 Plus User Manual (Version 1.0.12). , (2017).
  31. SR Research Ltd. . EyeLink® Data Viewer User’s Manual (Version 3.1.97). , (2017).
  32. McQueen, J. M., Viebahn, M. C. Tracking recognition of spoken words by tracking looks to printed words. The Quarterly Journal of Experimental Psychology. 60 (5), 661-671 (2007).
  33. Altmann, G. T. M., Kamide, Y. Incremental interpretation at verbs: restricting the domain of subsequent reference. Cognition. 73 (3), 247-264 (1999).
  34. Altmann, G. T. M., Kamide, Y. The real-time mediation of visual attention by language and world knowledge: Linking anticipatory (and other) eye movements to linguistic processing. Journal of Memory and Language. 57 (4), 502-518 (2007).
  35. Snedeker, J., Trueswell, J. C. The developing constraints on parsing decisions: The role of lexical-biases and referential scenes in child and adult sentence processing. Cognitive Psychology. 49 (3), 238-299 (2004).
  36. Allopenna, P. D., Magnuson, J. S., Tanenhaus, M. K. Tracking the time course of spoken word recognition using eye movements: Evidence for continuous mapping models. Journal of Memory and Language. 38 (4), 419-439 (1998).
  37. Zhan, L., Crain, S., Zhou, P. The online processing of only if and even if conditional statements: Implications for mental models. Journal of Cognitive Psychology. 27 (3), 367-379 (2015).
  38. Zhan, L., Zhou, P., Crain, S. Using the visual-world paradigm to explore the meaning of conditionals in natural language. Language, Cognition and Neuroscience. 33 (8), 1049-1062 (2018).
  39. Brown-Schmidt, S., Tanenhaus, M. K. Real-time investigation of referential domains in unscripted conversation: A targeted language game approach. Cognitive Science. 32 (4), 643-684 (2008).
  40. Fernald, A., Pinto, J. P., Swingley, D., Weinberg, A., McRoberts, G. W. Rapid gains in speed of verbal processing by infants in the 2nd year. Psychological Science. 9 (3), 228-231 (1998).
  41. Trueswell, J. C., Sekerina, I., Hill, N. M., Logrip, M. L. The kindergarten-path effect: studying on-line sentence processing in young children. Cognition. 73 (2), 89-134 (1999).
  42. Zhou, P., Su, Y., Crain, S., Gao, L. Q., Zhan, L. Children’s use of phonological information in ambiguity resolution: a view from Mandarin Chinese. Journal of Child Language. 39 (4), 687-730 (2012).
  43. Zhou, P., Crain, S., Zhan, L. Grammatical aspect and event recognition in children’s online sentence comprehension. Cognition. 133 (1), 262-276 (2014).
  44. Zhou, P., Crain, S., Zhan, L. Sometimes children are as good as adults: The pragmatic use of prosody in children’s on-line sentence processing. Journal of Memory and Language. 67 (1), 149-164 (2012).
  45. Moscati, V., Zhan, L., Zhou, P. Children’s on-line processing of epistemic modals. Journal of Child Language. 44 (5), 1025-1040 (2017).
  46. Helfer, K. S., Staub, A. Competing speech perception in older and younger adults: Behavioral and eye-movement evidence. Ear and Hearing. 35 (2), 161-170 (2014).
  47. Dickey, M. W., Choy, J. W. J., Thompson, C. K. Real-time comprehension of wh-movement in aphasia: Evidence from eyetracking while listening. Brain and Language. 100 (1), 1-22 (2007).
  48. Magnuson, J. S., Nusbaum, H. C. Acoustic differences, listener expectations, and the perceptual accommodation of talker variability. Journal of Experimental Psychology-Human Perception and Performance. 33 (2), 391-409 (2007).
  49. Reinisch, E., Jesse, A., McQueen, J. M. Early use of phonetic information in spoken word recognition: Lexical stress drives eye movements immediately. Quarterly Journal of Experimental Psychology. 63 (4), 772-783 (2010).
  50. Chambers, C. G., Tanenhaus, M. K., Magnuson, J. S. Actions and affordances in syntactic ambiguity resolution. Journal of Experimental Psychology-Learning Memory and Cognition. 30 (3), 687-696 (2004).
  51. Tanenhaus, M. K., Trueswell, J. C., Trueswell, J. C., Tanenhaus, M. K. . Approaches to Studying World-Situated Language Use: Bridging the Language-as-Product and Language-as-Action Traditions. , (2005).

Play Video

Cite This Article
Zhan, L. Using Eye Movements Recorded in the Visual World Paradigm to Explore the Online Processing of Spoken Language. J. Vis. Exp. (140), e58086, doi:10.3791/58086 (2018).

View Video