Waiting
Traitement de la connexion…

Trial ends in Request Full Access Tell Your Colleague About Jove
Click here for the English version

Behavior

Ögonrörelser i visuell varaktighetsuppfattning: Att skilja stimulus från tid i predecisional processer

Published: January 19, 2024 doi: 10.3791/65990

Summary

Vi presenterar ett protokoll som använder eyetracking för att övervaka ögonrörelser under en intervalljämförelseuppgift (varaktighetsuppfattning) baserat på visuella händelser. Syftet är att ge en preliminär guide för att skilja okulomotoriska svar på varaktighetsuppfattningsuppgifter (jämförelse eller diskriminering av tidsintervall) från svar på själva stimulus.

Abstract

Ögonspårningsmetoder kan möjliggöra onlineövervakning av kognitiv bearbetning under visuella varaktighetsuppfattningsuppgifter, där deltagarna ombeds att uppskatta, diskriminera eller jämföra tidsintervall som definieras av visuella händelser som blinkande cirklar. Såvitt vi vet har dock försöken att validera denna möjlighet hittills varit ofullständiga, och resultaten är fortfarande fokuserade på beteendemässiga beslut som fattas offline efter stimulus. Denna artikel presenterar ett eye-tracking-protokoll för att utforska de kognitiva processer som föregår beteendemässiga svar i en intervalljämförelseuppgift, där deltagarna tittade på två på varandra följande intervall och var tvungna att bestämma om det påskyndades (första intervallet längre än andra) eller saktade ner (andra intervallet längre).

Vårt huvudsakliga bekymmer var att särskilja okulomotoriska svar på själva den visuella stimulansen från korrelat av varaktighet relaterad till bedömningar. För att uppnå detta definierade vi tre på varandra följande tidsfönster baserat på kritiska händelser: baslinjestart, början av det första intervallet, början av det andra intervallet och slutet av stimulus. Vi extraherade sedan traditionella okulomotoriska mått för var och en (antal fixeringar, pupillstorlek) och fokuserade på tidsfönsterrelaterade förändringar för att separera svaren på den visuella stimulansen från de som är relaterade till intervalljämförelse i sig. Som vi visar i de illustrativa resultaten visade eyetracking-data signifikanta skillnader som överensstämde med beteenderesultat, vilket väcker hypoteser om de mekanismer som är inblandade. Detta protokoll är i sin linda och kommer att kräva många förbättringar, men det utgör ett viktigt steg framåt i den nuvarande tekniska utvecklingen.

Introduction

Tidsuppfattningsförmåga har fått allt större uppmärksamhet inom forskningen under de senaste åren, delvis på grund av att det finns allt fler bevis för att dessa kan vara kopplade till läsförmåga eller patologiska tillstånd 1,2,3,4,5. Visuell varaktighetsuppfattning – förmågan att uppskatta, urskilja eller jämföra tidsintervall som definieras av visuella händelser – är ett delområde av intresse 6,7 där eyetracking-metoder kan bidra. Resultaten är dock fortfarande fokuserade på beteendemässiga beslut efter stimulering som att trycka på en knapp för att ange hur mycket tid som har gått (uppskattning), om tidsintervallen är samma eller olika (diskriminering) eller vilket av en serie tidsintervall som är längst eller kortast. Ett fåtal studier har försökt korrelera beteenderesultat med eyetracking-data 8,9 men de misslyckades med att hitta korrelationer mellan de två, vilket tyder på att ett direkt samband saknas.

I den aktuella artikeln presenterar vi ett protokoll för att registrera och analysera okulomotoriska svar under stimuluspresentation i en visuell varaktighetsuppfattningsuppgift. Specifikt hänvisar beskrivningen till en intervalljämförelseuppgift där deltagarna såg sekvenser av tre händelser som definierade två tidsintervall och ombads att bedöma om de ökade hastigheten (första intervallet längre än andra) eller saktade ner (första kortare än andra). Tidsintervallen som användes i studien sträckte sig från 133 till 733 ms, i enlighet med principerna i Temporal Sampling Framework (TSF)10. TSF tyder på att hjärnans oscillerande aktivitet, särskilt i frekvensband som deltaoscillationer (1-4 Hz), synkroniseras med inkommande talenheter som sekvenser av stressaccenter. Denna synkronisering förbättrar kodningen av tal, förbättrar uppmärksamheten på talenheter och hjälper till att extrahera sekventiella regelbundenheter som kan vara relevanta för att förstå tillstånd som dyslexi, som uppvisar atypiska lågfrekventa svängningar. Målet med studien där vi utvecklade den metod som presenteras här var att avgöra om dyslektikers svårigheter med visuell varaktighetsuppfattning (gruppeffekter på intervalljämförelseuppgiften) återspeglar problem i bearbetningen av själva synobjektet, nämligen rörelse- och luminanskontraster11. Om så var fallet förväntade vi oss att dyslektikers nackdel mot kontroller skulle vara större för stimuli med rörelse och låga luminanskontraster (interaktion mellan grupp och stimulustyp).

Huvudresultatet av den ursprungliga studien drevs av beteendemässiga bedömningar efter stimulus. Ögonspårningsdata - pupillstorlek och antal fixeringar - som registrerades under stimuluspresentationen användes för att utforska processer som föregick beteendebesluten. Vi anser dock att det nuvarande protokollet kan användas oberoende av insamling av beteendedata, förutsatt att målen sätts i enlighet med detta. Det kan också vara möjligt att justera den för intervalldiskrimineringsuppgifter. Att använda det i tidsuppskattningsuppgifter är inte så omedelbart, men vi skulle inte utesluta den möjligheten. Vi använde pupillstorlek eftersom den bland annat återspeglar kognitiv belastning 12,13,14 och därmed kan ge information om deltagarnas färdigheter (högre belastning innebär färre färdigheter). När det gäller antalet fixeringar kan fler fixeringar återspegla deltagarnas starkare engagemang i uppgiften15,16. I den ursprungliga studien användes fem typer av stimulus. För enkelhetens skull använde vi bara två i det nuvarande protokollet (Ball vs. Flash, som representerar en rörelserelaterad kontrast).

Den största utmaningen vi försökte ta itu med var att skilja svaren på själva den visuella stimulansen från de som är relaterade till intervalljämförelse, eftersom det är känt att okulomotoriska svar förändras beroende på egenskaper som rörelse- eller luminanskontraster17. Baserat på premissen att den visuella stimulansen bearbetas så snart den dyker upp på skärmen (första intervallet), och att intervalljämförelse endast är möjlig när det andra tidsintervallet börjar, definierade vi tre tidsfönster: prestimulusfönster, första intervallet, andra intervallet (beteenderespons ingår inte). Genom att analysera förändringar från prestimulusfönstret under det första intervallet skulle vi få index över deltagarnas svar på själva stimulus. Att jämföra det första med det andra intervallet skulle utnyttja möjliga okulomotoriska signaturer för intervalljämförelse - uppgiften som deltagarna ombads att utföra.

Protocol

Femtiotvå deltagare (25 diagnostiserade med dyslexi eller signalerade som potentiella fall och 27 kontroller) rekryterades från samhället (via sociala medier och e-postkontakter) och en universitetskurs. Efter en bekräftande neuropsykologisk bedömning och efterföljande dataanalys (för mer information, se Goswami10) uteslöts sju deltagare från studien. Denna exkludering bestod av fyra individer med dyslexi som inte uppfyllde kriterierna, två dyslektiska deltagare med extremvärden i den primära experimentella uppgiften, och en kontrolldeltagare vars eyetracking-data påverkades av brus. Det slutliga urvalet bestod av 45 deltagare, 19 dyslektiska vuxna (en man) och 26 kontroller (fem män). Alla deltagare hade portugisiska som modersmål, hade normal eller korrigerad till normal syn, och ingen hade diagnostiserade hörsel-, neurologiska eller talproblem. Protokollet som beskrivs här har godkänts av den lokala etiska kommittén vid fakulteten för psykologi och utbildningsvetenskap vid universitetet i Porto (dnr 2021/06-07b), och alla deltagare undertecknade informerat samtycke i enlighet med Helsingforsdeklarationen.

1. Skapande av stimulans

  1. Definiera åtta sekvenser med två tidsintervall (tabell 1) där den första är kortare än den andra (långsam sekvens). Välj intervall som är kompatibla med animeringsprogrammets bildrutehastighet (i det här fallet 30 bildrutor/s, 33 ms/bildruta) med hjälp av en konverteringstabell för bildrutelängd.
  2. För varje nedsaktningssekvens skapar du en analog för att öka hastigheten genom att invertera ordningen på intervallen (tabell 1).
  3. I ett kalkylblad konverterar du intervalllängden till antalet bildrutor genom att dividera målintervallet (ms) med 33 (t.ex. för intervallsekvens på 300–433 ms anger du 9–13 bildrutor).
  4. Definiera nyckelbildrutor för varje sekvens: stimulusstart vid bildruta 7 (efter sex tomma bildrutor, motsvarande 200 ms), förskjutning av intervall 1 vid bildruta 6 + längden på intervall 1 (6 + 9 för det givna exemplet), samma för förskjutningen av intervall 2 (6 + 9 + 13). Ställ in ytterligare två bildrutor i slutet av intervall 2 för att markera slutet på stimulansen (6+ 9 + 13 +2).
  5. Skapa flashsekvenser som animationer.
    1. Kör animeringsprogrammet (t.ex. Adobe Animate) och skapa en ny fil med svart bakgrund.
    2. Vid bildruta 7 ritar du en blå cirkel i mitten av skärmen. Se till att dess mått gör att den upptar cirka 2° av synfältet med det planerade avståndet mellan skärm och öga (55 cm här), vilket innebär att kuldiametern är 1,92 cm.
    3. Kopiera och klistra in den här bilden i nästa intilliggande bildruta (med början på bildruta 7), så att varje blixt varar cirka 99 ms.
    4. Kopiera och klistra in den här sekvensen med två bildrutor i de andra två nyckelbildrutorna (början av intervallen 1 och 2).
    5. Bygg de återstående 15 animationerna genom att skapa kopior av filen och flytta intervallstarterna till lämpliga bildrutor.
  6. Skapa studsande bollsekvenser som animationer.
    1. Öppna en fil i animeringsprogrammet med samma specifikationer (storlek, bakgrund) som används i flash-animationer. Öppna kalkylbladet med specifikationer för nyckelrutor så att nyckelrutor nu motsvarar klämda bollar som träffar marken.
    2. Börja med tre bildrutor med svart bakgrund (99 ms). I den 4:e bilden ritar du en blå boll längst upp i mitten, lika med den som används för blixtar.
    3. Rita en hoptryckt boll (bredden är större än höjden) vid stimulusstartpunkten, som varar i tre bildrutor (början av intervall 1). Se till att bollen är horisontellt centrerad och vertikalt under mitten av skärmen.
      1. Klicka på knappen Objektets egenskaper och sedan på Position och Storlek för att placera bollen på den valda klämhöjden och öka bredden/minska höjden.
    4. Generera en kontinuerlig ändring med interpoleringskommandot från bollen högst upp till den hoptryckta bollen (vertikal nedstigning).
    5. Kopiera sekvensen med tre bildrutor med den krossade bollen till de andra två nyckelbildrutorna (början av intervallen 1 och 2).
    6. I kalkylbladet dividerar du varaktigheten för varje intervall med 2 för att definiera mittpunkterna mellan två squash för intervall 1 och 2, där bollen når maximal höjd efter stigande och före fall.
    7. Dra en boll som inte är hoptryckt vertikalt ovanför banans lägsta punkt vid de mittpunkter som definieras i steg 1.6.6. Generera den stigande animationen mellan intervallstarten (när bollen träffar marken) och den högsta punkten och mellan den högsta punkten och nästa squash (nedstigning).
  7. Anpassa filen till de andra 15 tidsstrukturerna.
  8. Exportera alla animeringar som .xvd. Om alternativet inte är tillgängligt, exportera som .avi och konvertera sedan, så att det kan användas i ögonlänkssystemet.

2. Förberedelse av experiment

  1. Skapa experimentmappen
    1. Öppna programmet Experiment Builder och välj nytt i menyfilen.
    2. Spara projektet genom att klicka på Arkiv | Spara som. Ange namnet på projektet och platsen där det ska sparas.
      OBS: Detta kommer att skapa en hel mapp med undermappar för stimulusfiler och annat material. Experimentfilen visas i mappen med filnamnstillägget .ebd.
    3. Inne i projektmappen klickar du på Bibliotek och sedan i mappen som heter Video. Ladda upp .xvid-videostimulansfilerna till den här mappen.
      OBS: Alla stimuli som används i experimentet måste lagras i biblioteket.
  2. Skapa den grundläggande strukturen för interaktion inom systemet och mellan människa och system
    1. Dra startpanelen och skärmikonerna till grafredigeringsfönstret . Skapa en länk mellan dem genom att klicka och dra musen från den första till den andra.
    2. I egenskaperna för skärmen klickar du på knappen Infoga textresurs med flera rader och skriver en instruktionstext som förklarar kalibreringsproceduren som kommer att följa.
    3. Välj två utlösare (indatakanaler för att gå vidare i experimentet): tangentbord och el-knapp (knappruta). Länka skärmen till båda.
      OBS: Dessa utlösare gör det möjligt för deltagaren eller experimentledaren att klicka på valfri knapp för att fortsätta.
    4. Välj ikonen Kamerainställning och länka båda utlösarna till den.
      OBS: Detta gör det möjligt att upprätta kommunikation med ögonspåraren så att deltagarens ögon(n) kan övervakas för kamerajustering, kalibrering och validering (se avsnitt 4).
    5. Välj ikonen Resultatfil och dra den till höger i flödesschemat.
      OBS: Denna åtgärd gör det möjligt att registrera experimentets beteendesvar.
  3. Definiera blockstrukturen
    1. Välj sekvensikonen och länka den (se steg 2.2.1) till kamerainställningen.
    2. I Egenskaper klickar du på Antal iterationer och väljer 2 för antal block (Flashes och Balls).
    3. OBS: Detta kommer att skilja presentationen av blixtar från bollar.
    4. Ange sekvensen (blockdefinitionen) och dra en startpanelsikon , en visningsikon och utlösarna el_button och tangentbordet. Länka dem i den här ordningen.
    5. I skärmikonen klickar du på knappen Infoga textresurs med flera rader och skriver en instruktionstext som förklarar experimentet.
  4. Definiera prövningsstrukturen
    1. I blocksekvensen drar du ikonen Ny sekvens till redigeraren för att skapa testsekvensen.
      OBS: Kapsla testsekvensen i blocksekvensen gör det möjligt att köra flera försök i varje block.
    2. I testsekvensen drar du en startpanel och en ikon för att förbereda sekvens och länkar den andra till den första.
      OBS: Denna åtgärd laddar de experimentella stimuli som kommer att presenteras för deltagaren.
    3. Dra ikonen Driftkorrigering till gränssnittet och länka den till ikonen för förberedelsesekvens.
      OBS: Driftkorrigeringen presenterar ett enda fixeringsmål på stimuleringsdatorskärmen och gör det möjligt att jämföra markörens blickposition med den faktiska stimulipositionen på inspelningsdatorn. Driftkontrollen och respektive korrigering kommer automatiskt att påbörjas efter varje försök för att säkerställa att den initiala kalibreringskvaliteten kvarstår.
  5. Definiera inspelningsstrukturen
    1. I testsekvensen drar du ikonen Ny sekvens till redigeraren för att skapa inspelningssekvensen.
      OBS: Inspelningssekvensen är ansvarig för insamling av ögondata, och det är där de visuella stimuli presenteras.
    2. Välj alternativet Spela in i egenskaperna för den här sekvensen.
      OBS: Genom att göra detta börjar eyetrackern registrera när stimulus börjar och slutar när stimulus slutar.
    3. I egenskaper klickar du på Datakälla och fyller i tabellen (skriv eller välj) på varje rad med det exakta filnamnet för varje stimulus, typen av försöksövning eller experimentell, hur många gånger varje stimulus kommer att presenteras (1 här) och knappen för förväntat svar .
      OBS: Filnamnen måste vara identiska med de som laddas upp i Biblioteket, inklusive filändelsen (t.ex. ball_sp_1.xvd).
    4. På den övre panelen i gränssnittet klickar du på Randomiseringsinställningars och markerar rutorna Aktivera randomisering av försök för att säkerställa att stimuli kommer att randomiseras inom varje block. Klicka på Ok för att återgå till gränssnittet.
    5. I inspelningssekvensen skapar du anslutningen mellan startpanelen och skärmen. Inuti skärmen väljer du knappen Infoga videoresurs (kameraikonen) och drar den till gränssnittet.
    6. Länka tangentbordet och el-knappens utlösare till visningsikonen (som i steg 2.2.1) så att deltagaren kan svara.
    7. Dra ikonen Kontrollera noggrannhet och länka den till utlösarna som i steg 2.2.1.
      OBS: Den här åtgärden gör det möjligt för programvaran att kontrollera om tangenten som trycktes ned matchar värdet för rätt svarskolumn i datakällan.
  6. Slutföra experimentet
    1. Längst upp i huvudpanelen klickar du på pilikonen Kör för att köra ett test av experimentet.

3. Installation av utrustning

  1. Anslut stimuleringsdatorn till en knappbox med 5 knappar och ett tangentbord.
  2. Anslut stimuleringsdatorn (med det systemdedikerade presentationsprogrammet) till eyetrackern (Figur 1), placerad under eller framför monitorn.
  3. Anslut eyetrackern till inspelningsdatorn.

Figure 1
Bild 1: Inställningen av ögonspårning. Det rumsliga arrangemanget av inspelningssystemet består av stimuleringsdatorn, inspelningsdatorn, ögonstyrningen, svarsenheten (knapplådan) och tangentbordet. Deltagarna satt 55 cm från stimuleringsskärmen. Klicka här för att se en större version av denna figur.

4. Förberedelse av datainsamling

  1. Inhämta informerat samtycke från deltagarna och beskriv det experimentella formatet för dem. Placera deltagaren på ett avstånd från stimuleringsdatorn så att stimuluscirkeln (blixt eller boll) motsvarar av synfältet (typiskt avstånd ~ 60 cm).
  2. Välj samplingsfrekvens (1 000 Hz för hög upplösning) och öga(n) som ska spelas in (dominant öga).
  3. I visualiseringen som tillhandahålls av inspelningsdatorn, se till att eyetrackern spårar målet (en pinne placerad mellan deltagarens ögonbryn) och det dominanta ögat på ett stabilt sätt. Flytta kameran uppåt eller nedåt om det behövs.
  4. Öppna experimentet. Kör 5-punktskalibrerings- och valideringsprocedurerna som tillhandahålls av systemet från inspelningsdatorn för att möjliggöra korrekt och tillförlitlig registrering av ögonrörelser. Instruera deltagaren att titta på en punkt som kommer att visas på skärmen på (5) olika ställen (en gång för kalibrering, två gånger för validering).
    OBS: Acceptera endast fel under 0.5°.

5. Köra experimentet

  1. Förklara uppgiften för deltagaren.
  2. Presentera övningsförsöken och klargör deltagarnas tvivel.
  3. Starta experimentet genom att klicka på Kör.
  4. Pausa experimentet mellan betingelserna och förklara att stimulansen nu kommer att vara annorlunda, men frågan är densamma.

6. Skapa tidsfönster för analys

  1. I Dataviewer-programvara18, gå till Arkiv, sedan Importera data och slutligen Flera EyeLink-datafiler. I dialogrutan väljer du alla deltagares filer.
  2. Välj en utvärderingsversion. Välj den fyrkantiga ikonen för att rita ett intresseområde.
    OBS: Intresseområdet definierar både en region på skärmen och ett tidsfönster i provperioden. Här väljer vi alltid helskärm.
  3. För att skapa TW all (figur 2), klicka på ritikonen och välj helskärm. I dialogrutan Öppna anger du intresseområdet som TW_all och definierar ett tidssegment som matchar hela utvärderingsperioden.
    1. Klicka på Spara intresseområdesuppsättningen och tillämpa denna mall på alla försök med samma längd (t.ex. tidsstrukturerna 1 och 8 från tabell 1, för både bollar och blixtar, för alla deltagare).
  4. Välj en av de 16 tidsstrukturerna i tabell 1. Definiera TW_0, TW_1 och TW_2 som i steg 6.3, men följ tidsgränserna som schematiseras i figur 2 (tidsfönstergränser som motsvarar blixtframträdanden och bollsquash). Längden på TW0 är anpassningsbar.
    1. Märk varje intresseområde och tillämpa mallen på försöken med samma tidsstruktur (bollar och blixtar, alla deltagare).
    2. Upprepa processen för de 15 återstående tidsstrukturerna.

Figure 2
Figur 2: Typ av stimulus. Sekvenser av studsande bollar (vänster) och blixtar (höger) som användes i experimentet. De streckade linjerna anger de tidsfönster som används för analysen: TW0 är prestimulusperioden; TW1 är stimuluss första framträdande på skärmen och markerar det första intervallet - när deltagaren har information om stimulis egenskaper och längden på det första intervallet, och TW2 markerar det andra intervallet - när deltagaren kan jämföra det första med det andra intervallet för att utarbeta ett beslut (långsammare eller snabbare). Klicka här för att se en större version av denna figur.

7. Åtgärder för extraktion

  1. I menyraden klickar du på Analys | Rapport |Rapport om intresseområdet.
  2. Välj följande mått för att extrahera uppehållstid, antal fixeringar och pupillstorlek och klicka sedan på nästa.
    OBS: Utdata ska innehålla data från 16 flashförsök och 16 studsbollsförsök per deltagare (32 försök x n deltagare), specificerade för vart och ett av de fyra tidsfönstren (TW0, TW1, TW2, TW alla).
  3. Exportera matrisen som en .xlsx fil.

8. Ta bort prövningar med artefakter

  1. Överväg uppehållstidsmått för TW all och markera försök med mer än 30 % signalförlust (uppehållstid < 70 % av försökstiden).
    OBS: Tänk på att var och en av de 32 försöken har olika längd.
  2. Uteslut bullriga (markerade) spår från matrisen och spara den.

9. Statistisk analys

  1. Utför två upprepade mätningar ANOVA (TW x grupp x stimulus) för varje takt, en med TW 0 och 1, den andra med TW 1 och 2.
  2. Korrelera TW-relaterade förändringar med beteenderesultat om det finns tillgängligt.

Representative Results

För att bättre förstå TW-relaterade förändringar fokuserade vår analys på interaktionen mellan tidsfönster (TW0 vs. TW1, TW1 vs. TW2) med stimulustyp och grupp. Som visas i figur 3 visade båda TW-relaterade jämförelserna (TW01 och TW12) olika nivåer av förändring beroende på stimulus (TW x stimulusinteraktion), där bollar framkallade fler TW-relaterade förändringar i okulomotoriska svar än blixtar i båda grupperna (ingen TW x stimulus x gruppinteraktion). Detta gällde både pupillstorlek och antal fixeringar. När det gäller gruppinfluenser fann vi en TW x-gruppinteraktion på förändringen i antalet fixeringar från TW0 till TW1 (respons på stimulusstart): dyslektiker visade minskad förändring, främst på grund av lägre prestimulusvärden. Interaktioner mellan TW, stimulus och grupp var frånvarande. Detta visar att gruppinfluenserna var likartade för både bollar och blixtar.

Figure 3
Bild 3: Resultat. Tidsfönsterrelaterade förändringar i pupillstorlek och antal fixeringar som en funktion av grupp (kontroll vs. dyslektiker, TW x grupp) och stimulustyp (Balls, B, vs. Flashes, F, TW x Stimulus). TW 0-1 tar upp kontrasten mellan ingen stimulans och stimulussynlighet; TW 1-2 jämför det första och andra intervallet för att ta itu med intervalljämförelsen. Konfidensintervallen på 95 % representeras av lodräta staplar. Bollar framkallade fler förändringar än blixtar från TW0 över TW1 (mer minskning) och från TW1 över TW2 (mer ökning) i båda ögonspårningsmätningarna och båda grupperna (TW x stimulus, ingen TW x stimulus x grupp). Förändringar i antalet fixeringar över TW 0-1 var mindre hos dyslektiker än hos kontrollpersoner oavsett stimulustyp (TW x-gruppen, ingen TW x-stimulus x-gruppen). Klicka här för att se en större version av denna figur.

Figure 4
Figur 4: Beteendemässiga resultat. (A) Diskriminering mellan upp- och nedvarvningssekvenser (d-prime) per grupp och stimulustyp. (B) Signifikanta korrelationer mellan beteendemässig prestation (d-prime) och tidsfönsterrelaterade förändringar i ögonrörelser, båda stimulus-genomsnittliga. Klicka här för att se en större version av denna figur.

Kritiskt nog var dessa värden parallella med beteendefynd (Figur 4A), i linje med huvudstudien: beteendefynd pekade på stimuluseffekter (mindre noggrannhet för Balls än för Flashes) och gruppeffekter (sämre prestation hos dyslektiker), utan grupp x stimulusinteraktioner. Dessutom, i den ursprungliga studien med fem olika stimuli, korrelerade vi beteendemässiga med ögonspårningsdata (antal fixeringar) i genomsnitt för alla stimulustyper och fann en korrelation i den dyslektiska gruppen: mindre förändringar från TW0 över TW1 samexisterade med förbättrad prestation. Sammantaget verkade resultaten överensstämma med hypotesen att dessa (vuxna) dyslektiker kan tillgripa kompensatoriska strategier för avsiktlig kontroll av uppmärksamheten på själva stimulus under prestimulusperioden (färre fixeringar på den tomma skärmen skulle gynna fokusering på stimulus när det dök upp). Vi fann ingen sådan korrelation hos kontrollerna, vilket tyder på att de kanske inte behöver ta till strategier för att behålla fokus. Den begränsade datamängden som används här för illustration (endast två stimuli, bollar och blixtar) visade samma mönster (figur 4B): dyslektiker, men inte kontroller, visade signifikanta korrelationer mellan d-prime (beteendediskrimineringsindex) och TW01-relaterade förändringar.

Sammanfattningsvis replikerade eyetracking-resultaten som behandlade deltagarnas svar på både stimulusdebut (TW 0-1) och intervalljämförelse (TW 1-2) beteendebevisen för att bollar kontra blixtar framkallar olika svar hos individer med och utan dyslexi (TW x stimulus på eye-tracking-åtgärder, stimuluseffekter på d-prime). En del av ögonrörelseresultaten var också parallella med gruppeffekterna på d-prime, i det att förändringar i antalet fixeringar vid stimulusstart (TW 0-1) var mindre hos dyslektiker. Dessutom var interaktioner mellan stimuli och grupp (olika nivåer av avvikelse i dyslektiker för bollar kontra blixtar) noll för beteende- och ögonspårningsdata. Slutligen var korrelationen mellan beteendemässig prestation och den okulomotoriska responsen signifikant i den dyslektiska gruppen.

Sekvens Typ Intervall 1 Intervall 2 Skillnad
1 Snabba upp 433 300 133
2 Snabba upp 300 167 133
3 Snabba upp 467 433 34
4 Snabba upp 733 167 566
5 Snabba upp 467 300 167
6 Snabba upp 433 134 299
7 Snabba upp 534 233 301
8 Snabba upp 500 433 67
9 Sakta ner 300 433 -133
10 Sakta ner 167 300 -133
11 Sakta ner 433 467 -34
12 Sakta ner 167 733 -566
13 Sakta ner 300 467 -167
14 Sakta ner 133 434 -301
15 Sakta ner 233 534 -301
16 Sakta ner 433 500 -67
Genomsnittligt intervall 377.1
Genomsnittlig skillnad 212.6
Genomsnittlig skillnad/intervall 294.8

Tabell 1: Intervallets varaktighet. Stimulussekvenser för upp- och nedvarvningssekvenser i millisekunder.

Discussion

Det nuvarande protokollet innehåller en ny komponent som kan vara avgörande för att ta itu med nuvarande hinder för att införliva eyetracking i visuella varaktighetsuppfattningsuppgifter. Det kritiska steget här är definitionen av tidsfönster baserat på kognitiva processer som antas äga rum i vart och ett av dessa tidsfönster. I det system vi använde kan tidsfönster endast definieras som intresseområden (ett rymdrelaterat begrepp som är kopplat till tid i dessa system), men i andra system är det möjligt att göra detta genom att exportera olika segment av försöket. Förutom den här tidssegmenteringen av utvärderingsversionen är det viktigt att fokusera på att analysera ändringar över tidsfönster i stället för parametrarna per tidsfönster.

När det gäller de ändringar av protokollet som måste göras var de främst relaterade till storleken på det område som var av intresse. Vi gjorde ett första försök med dynamiska AOI:er - att definiera ett rumsligt urval runt stimulus som följde det, snarare än hela skärmen. Vi insåg dock snart att vi kunde missa relevanta händelser utanför det området. Med tanke på att våra mått inte var relaterade till fokus på stimulus (pupillstorlek förväntades förändras beroende på kognitiv belastning och inte beroende på uppmärksamhet på blixten eller bollen; antalet fixeringar förväntades återspegla rumslig sökning), valde vi att använda helskärm som intresseområde.

Det nuvarande protokollet är ett embryo till ett förslag som fortfarande är föremål för många förbättringar. Vi kommer bara att lyfta fram två av dessa, även om det finns mycket mer utrymme för förbättringar. Den första gäller skillnaderna i längden på de tre tidsfönstren, vilket hindrar oss från att tolka tidsfönstrets effekter på antalet fixeringar (t.ex. innebär ett längre tidsfönster fler fixeringar, därav minskningen från TW0 till TW1, se figur 3). Ett sätt att ta itu med detta problem skulle vara att ta hänsyn till antalet fixeringar per tidsenhet.

Den andra handlar om korrespondensen mellan tidsfönster och förmodade pågående processer, vilket inkluderar olika frågor. En är att TW1 inte bara representerar stimulusutseende utan troligen också en explicit form av intervallestimering (första intervallet) som är underordnad intervalljämförelsen och sannolikt saknas i TW0. På liknande sätt kan förändringar över tidsperioder också återspegla förändringar i allmänna processer som bibehållen uppmärksamhet och arbetsminne18, även om vissa av dessa förändringar kan förväntas i en intervalljämförelseuppgift (arbetsminnesbelastningen förväntas öka från TW1 till TW2). Ett sätt att dämpa dessa potentiella förväxlingsfaktorer skulle vara att introducera kontrolluppgifter relaterade till ren varaktighetsuppskattning, bibehållen uppmärksamhet och arbetsminne, och sedan basera ögonspårningsdataanalysen på jämförelsen mellan experimentella (intervalljämförelse) och kontrolluppgifter. Ett annat problem är att varaktigheten för TW0 var irrelevant för uppgiften, och det är känt att aktivitetsirrelevanta varaktigheter kan vara skadliga för prestanda19. Framtida arbete skulle kunna fokusera på att förbättra detta, nämligen genom att skapa en skillnad på 300 ms mellan TW0 (irrelevant intervall) och TW1 för att bättre avgränsa visuella bearbetningssvar, eftersom en kort händelse kan vara partisk för att uppfattas tidigare eller senare än dess presentation genom att helt enkelt lägga till en annan händelse i nära tidsmässig närhet20,21.

Slutligen kan spontana ögonblinkningar påverka tidsuppfattningen genom att förvränga den (vidga tiden om en ögonblinkning föregår intervallet, dra ihop sig om den inträffar samtidigt), vilket kan leda till variabilitet i intraindividuell tidsprestanda22. Ett sätt att minimera detta problem skulle vara att tillämpa en ögonblinkningsbaserad korrigeringsfaktor i deltagarnas beteendebedömningar (t.ex. tilldela en tillförlitlighetsgrad till varje bedömning beroende på förekomsten av blinkningar före eller under stimulin. Att införliva den statistiska metoden att behandla prövningar som slumpmässiga variabler kan också hjälpa till att ta itu med detta problem.

När det gäller framtida forskning är sambandet mellan spontan ögonblinkningsfrekvens (EBR) och tidsuppfattning. EBR har varit känt för att vara en icke-invasiv indirekt markör för central dopaminfunktion (DA)23, och på senare tid har högt ERB associerats med sämre tidsuppfattning. Studien tyder på en implikation av dopamin i intervalltid och pekar på användningen av ERB som en proxy för dopamin åtgärd24. Ett annat viktigt ämne är den funktionella betydelsen av de (förändringsrelaterade) mått som vi analyserat, vilket ännu inte har fastställts inom ramen för vårt paradigm. I den ursprungliga studien, liksom i den nuvarande förenklade datamängden, överensstämde ökningar av pupillstorleken från TW0 till TW1 med idén om ökad kognitiv belastning, men frånvaron av gruppeffekter på detta mått utesluter ytterligare överväganden. Ett mönster som verkar finnas är att mindre förändringar över tidsfönster korrelerade med bättre beteendeprestanda (Blinkar bättre än Balls, och d-prime i dyslektiker relaterade till mindre förändringar), men ytterligare forskning behövs.

Trots sina begränsningar är det nuvarande protokollet, så vitt vi vet, det första som visar parallella resultat i eyetracking och beteendedata (samma effektprofil), samt några bevis på korrelationen mellan de två.

Disclosures

Författarna har inga intressekonflikter att redovisa.

Acknowledgments

Detta arbete stöddes av den portugisiska stiftelsen för vetenskap och teknik inom ramen för bidrag UIDB/00050/2020. och PTDC/PSI-GER/5845/2020. APC finansierades helt och hållet av den portugisiska stiftelsen för vetenskap och teknik inom ramen för anslaget PTDC/PSI-GER/5845/2020 (http://doi.org/10.54499/PTDC/PSI-GER/5845/2020).

Materials

Name Company Catalog Number Comments
Adobe Animate Adobe It is a tool for designing flash animation films, GIFs, and cartoons.
EyeLink Data Viewer It is robust software that provides a comprehensive solution for visualizing and analyzing gaze data captured by EyeLink eye trackers. It is accessible on Windows, macOS, and Linux platforms. Equipped with advanced capabilities, Data Viewer enables effortless visualization, grouping, processing, and reporting of EyeLink gaze data.
Eye-tracking system SR Research EyeLink 1000 Portable Duo It has a portable duo camera, a Laptop PC Host, and a response device. The EyeLink integrates with SR Research Experiment Builder, Data Viewer, and WebLink as well as many third-party stimulus presentation software and tools.
Monitor Samsung Syncmaster  957DF It is a 19" flat monitor 
SR Research Experiment Builder SR Research It is an advanced and user-friendly drag-and-drop graphical programming platform designed for developing computer-based experiments in psychology and neuroscience. Utilizing Python as its foundation, this platform is compatible with both Windows and macOS, facilitating the creation of experiments that involve both EyeLink eye-tracking and non-eye-tracking functionalities.

DOWNLOAD MATERIALS LIST

References

  1. Bellinger, D., Altenmüller, E., Volkmann, J. Perception of time in music in patients with parkinson's disease - The processing of musical syntax compensates for rhythmic deficits. Frontiers in Neuroscience. 11, 68 (2017).
  2. Plourde, M., Gamache, P. L., Laflamme, V., Grondin, S. Using time-processing skills to predict reading abilities in elementary school children. Timing & Time Perception. 5 (1), 35-60 (2017).
  3. Saloranta, A., Alku, P., Peltola, M. S. Listen-and-repeat training improves perception of second language vowel duration: evidence from mismatch negativity (MMN) and N1 responses and behavioral discrimination. International Journal of Psychophysiology. 147, 72-82 (2020).
  4. Soares, A. J. C., Sassi, F. C., Fortunato-Tavares, T., Andrade, C. R. F., Befi-Lopes, D. M. How word/non-word length influence reading acquisition in a transparent language: Implications for children's literacy and development. Children (Basel). 10 (1), 49 (2022).
  5. Sousa, J., Martins, M., Torres, N., Castro, S. L., Silva, S. Rhythm but not melody processing helps reading via phonological awareness and phonological memory. Scientific Reports. 12 (1), 13224 (2022).
  6. Torres, N. L., Luiz, C., Castro, S. L., Silva, S. The effects of visual movement on beat-based vs. duration-based temporal perception. Timing & Time Perception. 7 (2), 168-187 (2019).
  7. Torres, N. L., Castro, S. L., Silva, S. Visual movement impairs duration discrimination at short intervals. Quarterly Journal of Experimental Psychology. 77 (1), 57-69 (2024).
  8. Attard, J., Bindemann, M. Establishing the duration of crimes: an individual differences and eye-tracking investigation into time estimation. Applied Cognitive Psychology. 28 (2), 215-225 (2014).
  9. Warda, S., Simola, J., Terhune, D. B. Pupillometry tracks errors in interval timing. Behavioral Neuroscience. 136 (5), 495-502 (2022).
  10. Goswami, U. A neural basis for phonological awareness? An oscillatory temporal-sampling perspective. Current Directions in Psychological Science. 27 (1), 56-63 (2018).
  11. Catronas, D., et al. Time perception for visual stimuli is impaired in dyslexia but deficits in visual processing may not be the culprits. Scientific Reports. 13, 12873 (2023).
  12. Zagermann, J., Pfeil, U., Reiterer, H. Studying eye movements as a basis for measuring cognitive load. Extended Abstracts of the 2018 CHI Conference on Human Factors in Computing Systems. , ACM Press. New York. 1-6 (2018).
  13. Rafiqi, S., et al. PupilWare: Towards pervasive cognitive load measurement using commodity devices. Proceedings of the 8th ACM International Conference on PETRA. , 1-8 (2015).
  14. Klingner, J., Kumar, R., Hanrahan, P. Measuring the task-evoked pupillary response with a remote eye tracker. Proceedings of the 2008 Symposium on ETRA. , 69-72 (2008).
  15. Mahanama, B., et al. Eye movement and pupil measures: a review. Frontiers in Computer Science. 3, 733531 (2022).
  16. Pfleging, B., Fekety, D. K., Schmidt, A., Kun, A. L. A model relating pupil diameter to mental workload and lighting conditions. Proceedings of the 2016 CHI Conference on Human Factors in Computing Systems. , 5776-5788 (2016).
  17. Cicchini, G. M. Perception of duration in the parvocellular system. Frontiers in Integrative Neuroscience. 6, 14 (2012).
  18. EyeLink Data Viewer 3.2.1. SR Research Ltd. , Available from: https://www.sr-research.com/data-viewer/ (2018).
  19. Spencer, R., Karmarkar, U., Ivry, R. Evaluating dedicated and intrinsic models of temporal encoding by varying contex. Philosophical Transactions of the Royal Society B. 364 (1525), 1853-1863 (2009).
  20. Coull, J. T. Getting the timing right: experimental protocols for investigating time with functional neuroimaging and psychopharmacology. Advances in Experimental Medicine and Biology. 829, 237-264 (2014).
  21. Burr, D., Rocca, E. D., Morrone, M. C. Contextual effects in interval-duration judgements in vision, audition and touch. Experimental Brain Research. 230 (1), 87-98 (2013).
  22. Grossman, S., Gueta, C., Pesin, S., Malach, R., Landau, A. N. Where does time go when you blink. Psychological Science. 30 (6), 907-916 (2019).
  23. Jongkees, B. J., Colzato, L. S. Spontaneous eye blink rate as predictor of dopamine-related cognitive function-a review. Neuroscience & Biobehavioral Reviews. 71, 58-82 (2016).
  24. Sadibolova, R., Monaldi, L., Terhune, D. B. A proxy measure of striatal dopamine predicts individual differences in temporal precision. Psychonomic Bulletin & Review. 29 (4), 1307-1316 (2022).

Tags

Denna månad i JoVE nummer 203
Ögonrörelser i visuell varaktighetsuppfattning: Att skilja stimulus från tid i predecisional processer
Play Video
PDF DOI DOWNLOAD MATERIALS LIST

Cite this Article

Catronas, D., Lima Torres, N.,More

Catronas, D., Lima Torres, N., Silva, S. Eye Movements in Visual Duration Perception: Disentangling Stimulus from Time in Predecisional Processes. J. Vis. Exp. (203), e65990, doi:10.3791/65990 (2024).

Less
Copy Citation Download Citation Reprints and Permissions
View Video

Get cutting-edge science videos from JoVE sent straight to your inbox every month.

Waiting X
Simple Hit Counter