Waiting
Traitement de la connexion…

Trial ends in Request Full Access Tell Your Colleague About Jove
Click here for the English version

Behavior

Mouvements oculaires dans la perception visuelle de la durée : démêler le stimulus du temps dans les processus prédécisionnels

Published: January 19, 2024 doi: 10.3791/65990

Summary

Nous présentons un protocole qui utilise l’oculométrie pour surveiller les mouvements oculaires lors d’une tâche de comparaison d’intervalles (perception de la durée) basée sur des événements visuels. L’objectif est de fournir un guide préliminaire pour séparer les réponses oculomotrices aux tâches de perception de la durée (comparaison ou discrimination des intervalles de temps) des réponses au stimulus lui-même.

Abstract

Les méthodes de suivi oculaire peuvent permettre la surveillance en ligne du traitement cognitif pendant les tâches de perception de la durée visuelle, où les participants sont invités à estimer, discriminer ou comparer des intervalles de temps définis par des événements visuels tels que des cercles clignotants. Cependant, et à notre connaissance, les tentatives de validation de cette possibilité sont restées peu concluantes jusqu’à présent, et les résultats restent axés sur les décisions comportementales hors ligne prises après l’apparition du stimulus. Cet article présente un protocole de suivi oculaire pour explorer les processus cognitifs précédant les réponses comportementales dans une tâche de comparaison d’intervalles, où les participants ont vu deux intervalles consécutifs et ont dû décider s’ils accéléraient (premier intervalle plus long que deuxième) ou ralentissaient (deuxième intervalle plus long).

Notre principale préoccupation était de démêler les réponses oculomotrices au stimulus visuel lui-même des corrélats de durée liés aux jugements. Pour ce faire, nous avons défini trois fenêtres temporelles consécutives en fonction des événements critiques : l’apparition de la ligne de base, l’apparition du premier intervalle, l’apparition du deuxième intervalle et la fin du stimulus. Nous avons ensuite extrait les mesures oculomotrices traditionnelles pour chacune (nombre de fixations, taille de la pupille) et nous nous sommes concentrés sur les changements liés à la fenêtre temporelle pour séparer les réponses au stimulus visuel de celles liées à la comparaison d’intervalles en soi. Comme nous le montrons dans les résultats illustratifs, les données d’oculométrie ont montré des différences significatives qui étaient cohérentes avec les résultats comportementaux, soulevant des hypothèses sur les mécanismes engagés. Ce protocole est embryonnaire et nécessitera de nombreuses améliorations, mais il représente une avancée importante dans l’état actuel de la technique.

Introduction

Les capacités de perception du temps ont attiré de plus en plus l’attention de la recherche au cours des dernières années, en partie en raison de l’accumulation de preuves qu’elles peuvent être liées aux compétences en lecture ou aux conditions pathologiques 1,2,3,4,5. La perception visuelle de la durée - la capacité d’estimer, de discriminer ou de comparer des intervalles de temps définis par des événements visuels - est un sous-domaine d’intérêt 6,7 dans lequel les méthodes de suivi oculaire pourraient apporter une contribution. Cependant, les résultats restent axés sur les décisions comportementales post-stimulus, comme appuyer sur un bouton pour indiquer combien de temps s’est écoulé (estimation), si les intervalles de temps sont identiques ou différents (discrimination) ou lequel d’une série d’intervalles de temps est le plus long ou le plus court. Quelques études ont tenté de corréler les résultats comportementaux avec les données de suivi oculaire 8,9, mais elles n’ont pas réussi à trouver de corrélations entre les deux, ce qui suggère qu’une relation directe est absente.

Dans le présent article, nous présentons un protocole d’enregistrement et d’analyse des réponses oculomotrices lors de la présentation d’un stimulus dans une tâche de perception de la durée visuelle. Plus précisément, la description fait référence à une tâche de comparaison d’intervalles où les participants ont vu des séquences de trois événements qui définissaient deux intervalles de temps et ont été invités à juger s’ils accéléraient (premier intervalle plus long que le deuxième) ou ralentissaient (premier plus court que le deuxième). Les intervalles de temps utilisés dans l’étude s’étendaient de 133 à 733 ms, conformément aux principes du cadre d’échantillonnage temporel (TSF)10. TSF suggère que l’activité oscillatoire du cerveau, en particulier dans les bandes de fréquences telles que les oscillations delta (1-4 Hz), se synchronise avec les unités vocales entrantes telles que les séquences d’accents accentués. Cette synchronisation améliore l’encodage de la parole, améliore l’attention portée aux unités vocales et aide à extraire des régularités séquentielles qui peuvent être pertinentes pour comprendre des conditions telles que la dyslexie, qui présentent des oscillations atypiques à basse fréquence. L’objectif de l’étude dans laquelle nous avons développé la méthode présentée ici était de déterminer si les difficultés des dyslexiques dans la perception de la durée visuelle (effets de groupe sur la tâche de comparaison d’intervalles) reflètent des problèmes de traitement de l’objet visuel lui-même, à savoir les contrastes de mouvement et de luminance11. Si tel était le cas, nous nous attendions à ce que le désavantage des dyslexiques envers les témoins soit plus important pour les stimuli avec des contrastes de mouvement et de faible luminance (interaction entre le groupe et le type de stimulus).

Le principal résultat de l’étude originale était motivé par des jugements comportementaux post-stimulus. Les données de suivi oculaire - taille de la pupille et nombre de fixations - enregistrées lors de la présentation du stimulus ont été utilisées pour explorer les processus précédant les décisions comportementales. Nous pensons toutefois que le protocole actuel peut être utilisé indépendamment de la collecte de données comportementales, à condition que les objectifs soient fixés en conséquence. Il peut également être possible de l’ajuster pour les tâches de discrimination d’intervalle. L’utiliser dans les tâches d’estimation du temps n’est pas si immédiat, mais nous n’excluons pas cette possibilité. Nous avons utilisé la taille de la pupille parce qu’elle reflète la charge cognitive 12,13,14, entre autres états, et peut donc fournir des informations sur les compétences des participants (charge plus élevée signifiant moins de compétences). En ce qui concerne le nombre de fixations, un plus grand nombre de fixations peut refléter un engagement plus fort des participants dans la tâche15,16. L’étude originale utilisait cinq types de stimulus. Pour simplifier, nous n’en avons utilisé que deux dans le protocole actuel (Ball vs. Flash, représentant un contraste lié au mouvement).

Le principal défi que nous avons essayé de relever était de démêler les réponses au stimulus visuel lui-même de celles liées à la comparaison d’intervalles, car il est connu que les réponses oculomotrices changent en fonction de caractéristiques telles que le mouvement ou les contrastes de luminance17. En partant du principe que le stimulus visuel est traité dès qu’il apparaît à l’écran (premier intervalle), et que la comparaison d’intervalles n’est rendue possible qu’une fois le deuxième intervalle de temps commencé, nous avons défini trois fenêtres temporelles : fenêtre de préstimulus, premier intervalle, deuxième intervalle (réponse comportementale non incluse). En analysant les changements de la fenêtre de pré-stimulus sur le premier intervalle, nous obtiendrions des indices des réponses des participants au stimulus lui-même. La comparaison du premier au deuxième intervalle exploiterait les signatures oculomotrices possibles de la comparaison d’intervalle - la tâche que les participants ont été invités à effectuer.

Protocol

Cinquante-deux participants (25 diagnostiqués dyslexiques ou signalés comme cas potentiels et 27 témoins) ont été recrutés dans la communauté (par le biais des médias sociaux et des contacts par e-mail) et d’un cours universitaire. À la suite d’une évaluation neuropsychologique de confirmation et d’une analyse ultérieure des données (pour plus de détails, voir Goswami10), sept participants ont été exclus de l’étude. Cette exclusion comprenait quatre personnes dyslexiques qui ne répondaient pas aux critères, deux participants dyslexiques avec des valeurs aberrantes dans la tâche expérimentale principale et un participant témoin dont les données de suivi oculaire étaient affectées par le bruit. L’échantillon final était composé de 45 participants, 19 adultes dyslexiques (un homme) et 26 témoins (cinq hommes). Tous les participants étaient de langue maternelle portugaise, avaient une vision normale ou corrigée à la normale, et aucun n’avait de problèmes auditifs, neurologiques ou d’élocution diagnostiqués. Le protocole décrit ici a été approuvé par le comité d’éthique local de la Faculté de psychologie et des sciences de l’éducation de l’Université de Porto (réf. numéro 2021/06-07b), et tous les participants ont signé un consentement éclairé conformément à la Déclaration d’Helsinki.

1. Création de stimuli

  1. Définir huit séquences de deux intervalles de temps (tableau 1) dans lesquelles la première est plus courte que la seconde (séquence de ralentissement) ; Choisissez des intervalles compatibles avec la fréquence d’images du logiciel d’animation (ici, 30 images/s, 33 ms/image) à l’aide d’une table de conversion de durée d’image.
  2. Pour chaque séquence de ralentissement, créez un analogue d’accélération obtenu en inversant l’ordre des intervalles (Tableau 1).
  3. Dans une feuille de calcul, convertissez la longueur de l’intervalle en nombre d’images en divisant l’intervalle cible (ms) par 33 (par exemple, pour une séquence d’intervalles de 300 à 433 ms, indiquez 9 à 13 images).
  4. Définissez des images clés pour chaque séquence : début du stimulus à l’image 7 (après six images vides, correspondant à 200 ms), décalage de l’intervalle 1 à l’image 6 + durée de l’intervalle 1 (6 + 9 pour l’exemple donné), idem pour le décalage de l’intervalle 2 (6 + 9 + 13). Définissez deux autres images à la fin de l’intervalle 2 pour marquer la fin du stimulus (6 + 9 + 13 + 2).
  5. Créez des séquences flash sous forme d’animations.
    1. Exécutez le logiciel d’animation (par exemple, Adobe Animate) et créez un nouveau fichier avec un fond noir.
    2. À l’image 7, dessinez un cercle bleu au centre de l’écran. Assurez-vous que ses dimensions lui permettent d’occuper environ 2° du champ visuel avec la distance écran-œil prévue (55 cm ici), ce qui signifie que le diamètre de la balle est de 1,92 cm.
    3. Copiez et collez cette image dans l’image adjacente suivante (à partir de l’image 7), de sorte que chaque flash dure environ 99 ms.
    4. Copiez et collez cette séquence de deux images dans les deux autres images clés (début des intervalles 1 et 2).
    5. Créez les 15 animations restantes en créant des copies du fichier et en déplaçant les intervalles vers les images appropriées.
  6. Créez des séquences de balles rebondissantes sous forme d’animations.
    1. Ouvrez un fichier dans le logiciel d’animation avec les mêmes spécifications (taille, arrière-plan) que celles utilisées dans les animations flash. Ouvrez la feuille de calcul avec les spécifications des images clés afin que les images clés correspondent maintenant à des balles écrasées frappant le sol.
    2. Commencez avec trois images avec un fond noir (99 ms). Dans la4ème image, dessinez une boule bleue en haut au centre, égale à celle utilisée pour les flashs.
    3. Dessinez une balle écrasée (largeur supérieure à la hauteur) au point de début du stimulus, pendant trois images (début de l’intervalle 1). Assurez-vous que la balle est centrée horizontalement et verticalement sous le centre de l’écran.
      1. Cliquez sur le bouton Propriétés de l’objet puis sur Position et taille pour positionner la balle à la hauteur d’écrasement choisie et augmenter/diminuer la hauteur.
    4. Générez un changement continu à l’aide de la commande tween de la balle en haut à la balle écrasée (descente verticale).
    5. Copiez la séquence de trois images avec la balle écrasée dans les deux autres images clés (début des intervalles 1 et 2).
    6. Dans la feuille de calcul, divisez la durée de chaque intervalle par 2 pour définir les points médians entre deux squashs pour les intervalles 1 et 2, où la balle atteint la hauteur maximale après la montée et avant la descente.
    7. Dessinez une balle non écrasée verticalement au-dessus du point le plus bas de la trajectoire aux points médians définis à l’étape 1.6.6. Générez l’animation ascendante entre l’apparition de l’intervalle (lorsque la balle touche le sol) et le point le plus haut et entre le point le plus élevé et le prochain squash (descente).
  7. Adaptez le fichier aux 15 autres structures de temps.
  8. Exportez toutes les animations au format .xvd. Si l’option n’est pas disponible, exportez au .avi, puis convertissez-la pour pouvoir l’utiliser dans le système de liens.

2. Préparation de l’expérience

  1. Création du dossier d’expérience
    1. Ouvrez l’application Experiment Builder et choisissez nouveau dans le fichier de menu.
    2. Enregistrez le projet en cliquant sur Fichier | Enregistrer sous. Spécifiez le nom du projet et l’emplacement où il doit être enregistré.
      REMARQUE : Cela créera un dossier entier avec des sous-dossiers pour les fichiers de stimulus et autres matériaux. Le fichier d’expérience apparaîtra dans le dossier avec l’extension .ebd.
    3. Dans le dossier du projet, cliquez sur Bibliothèque puis dans le dossier nommé Vidéo. Téléchargez les fichiers de stimulus vidéo .xvid dans ce dossier.
      REMARQUE : Tous les stimuli utilisés dans l’expérience doivent être stockés dans la bibliothèque.
  2. Créer la structure de base pour l’interaction intra-système et homme-système
    1. Faites glisser les icônes du panneau de démarrage et de l’écran d’affichage vers la fenêtre de l’éditeur de graphiques . Créez un lien entre eux en cliquant et en faisant glisser la souris du premier au second.
    2. Dans les propriétés de l’écran d’affichage, cliquez sur le bouton Insérer une ressource de texte multiligne et tapez un texte d’instruction expliquant la procédure d’étalonnage qui suivra.
    3. Sélectionnez deux déclencheurs (canaux d’entrée pour avancer dans l’expérience) : clavier et bouton el (boîte de boutons). Reliez l’écran d’affichage aux deux.
      REMARQUE : Ces déclencheurs permettent au participant ou à l’expérimentateur de cliquer sur n’importe quel bouton pour continuer.
    4. Sélectionnez l’icône Configuration de la caméra et associez-y les deux déclencheurs.
      REMARQUE : Cela permettra d’établir une communication avec l’eye-tracker afin que les yeux du participant puissent être surveillés pour le réglage, l’étalonnage et la validation de la caméra (voir section 4).
    5. Sélectionnez l’icône Fichier de résultats et faites-le glisser sur le côté droit de l’organigramme.
      NOTE : Cette action permet d’enregistrer les réponses comportementales de l’expérience.
  3. Définition de la structure de bloc
    1. Sélectionnez l’icône Séquence et liez-la (voir étape 2.2.1) à la configuration de la caméra.
    2. Dans Propriétés, cliquez sur Nombre d’itérations et sélectionnez 2 pour le nombre de blocs (Flashes et Balles).
    3. REMARQUE : Cela séparera la présentation des flashs de celle des balles.
    4. Entrez la séquence (définition de bloc) et faites glisser une icône de panneau de démarrage , une icône d’affichage et les déclencheurs el_button et clavier. Reliez-les dans cet ordre.
    5. Dans l’icône de l’écran d’affichage , cliquez sur le bouton Insérer une ressource de texte multiligne et tapez un texte d’instruction expliquant l’expérience.
  4. Définition de la structure de l’essai
    1. Dans la séquence de blocs, faites glisser une icône Nouvelle séquence vers l’éditeur pour créer la séquence d’essai.
      REMARQUE : L’imbrication de la séquence d’essai à l’intérieur de la séquence de blocs permet d’exécuter plusieurs essais dans chaque bloc.
    2. Dans la séquence d’essai, faites glisser un panneau de démarrage et une icône Préparer la séquence , puis liez le second au premier.
      REMARQUE : Cette action charge les stimuli expérimentaux qui seront présentés au participant.
    3. Faites glisser l’icône Correction de la dérive vers l’interface et associez-la à l’icône de préparation de la séquence.
      REMARQUE : La correction de la dérive présente une seule cible de fixation sur l’écran de l’ordinateur de stimulation et permet de comparer la position du regard du curseur à la position réelle des stimuli sur l’ordinateur d’enregistrement. Le contrôle de la dérive et la correction correspondante commenceront automatiquement après chaque essai pour garantir la qualité de l’étalonnage initial durable.
  5. Définition de la structure d’enregistrement
    1. Dans la séquence d’essai, faites glisser une icône Nouvelle séquence vers l’éditeur pour créer la séquence d’enregistrement.
      REMARQUE : La séquence d’enregistrement est responsable de la collecte des données oculaires, et c’est là que les stimuli visuels sont présentés.
    2. Sélectionnez l’option Enregistrer dans les propriétés de cette séquence.
      REMARQUE : En faisant cela, l’eye tracker commence à enregistrer lorsque le stimulus commence et s’arrête lorsque le stimulus se termine.
    3. Dans les propriétés, cliquez sur Source de données et remplissez chaque ligne le tableau (type ou sélection) avec le nom exact de chaque stimulus, le type d’essai-pratique ou d’expérience, le nombre de fois que chaque stimulus sera présenté (1 ici) et le bouton de réponse attendue .
      REMARQUE : Les noms de fichiers doivent être identiques à ceux téléchargés dans la bibliothèque, extension de fichier incluse (par exemple, ball_sp_1.xvd).
    4. Dans le panneau supérieur de l’interface, cliquez sur Paramètres de randomisationet cochez les cases Activer la randomisation de l’essai pour vous assurer que les stimuli seront randomisés dans chaque bloc. Cliquez sur le bouton Ok pour revenir à l’interface.
    5. Dans la séquence d’enregistrement, créez la connexion panneau de démarrage-écran d’affichage. Dans l’écran d’affichage, sélectionnez le bouton Insérer une ressource vidéo (icône de caméra) et faites-le glisser vers l’interface.
    6. Reliez les déclencheurs du clavier et du bouton el à l’icône d’affichage (comme à l’étape 2.2.1) pour permettre au participant de répondre.
    7. Faites glisser l’icône Vérifier la précision et associez-la aux déclencheurs comme à l’étape 2.2.1.
      REMARQUE : Cette action permet au logiciel de vérifier si la touche enfoncée correspond à la valeur de la colonne de réponse correcte de la source de données.
  6. Finalisation de l’expérience
    1. En haut du panneau principal, cliquez sur l’icône Exécuter la flèche pour exécuter un test de l’expérience.

3. Configuration de l’appareil

  1. Connectez l’ordinateur de stimulation à une boîte à boutons à 5 boutons et à un clavier.
  2. Connectez l’ordinateur de stimulation (avec le logiciel de présentation dédié au système) à l’eye-tracker (Figure 1), placé sous ou devant le moniteur.
  3. Connectez l’eye-tracker à l’ordinateur d’enregistrement.

Figure 1
Figure 1 : Configuration de l’oculométrie. L’agencement spatial du système d’enregistrement est composé de l’ordinateur de stimulation, de l’ordinateur d’enregistrement, de l’eye-tracker, du dispositif de réponse (boîte à boutons) et du clavier. Les participants étaient assis à 55 cm de l’écran de stimulation. Veuillez cliquer ici pour voir une version agrandie de cette figure.

4. Préparation de la collecte de données

  1. Obtenir le consentement éclairé des participants et leur décrire le format expérimental. Positionnez le participant à une distance de l’ordinateur de stimulation de telle sorte que le cercle de stimulus (flash ou balle) corresponde à du champ visuel ( distance typique ~ 60 cm).
  2. Choisissez la fréquence d’échantillonnage (1 000 Hz pour la haute résolution) et l’œil à enregistrer (œil dominant).
  3. Dans la visualisation fournie par l’ordinateur d’enregistrement, assurez-vous que l’eye-tracker suit la cible (un bâton placé entre les sourcils du participant) et l’œil dominant de manière stable. Déplacez la caméra vers le haut ou vers le bas si nécessaire.
  4. Ouvrez l’expérience. Exécutez les procédures d’étalonnage et de validation en 5 points fournies par le système à partir de l’ordinateur d’enregistrement pour permettre un enregistrement précis et fiable des mouvements oculaires. Demandez au participant de regarder un point qui apparaîtra à l’écran à (5) endroits différents (une fois pour l’étalonnage, deux fois pour la validation).
    REMARQUE : N’acceptez que les erreurs inférieures à 0,5°.

5. Exécution de l’expérience

  1. Expliquez la tâche au participant.
  2. Présentez les essais pratiques et clarifiez les doutes des participants.
  3. Démarrez l’expérience en cliquant sur Exécuter.
  4. Mettez l’expérience en pause entre les conditions et expliquez que le stimulus va maintenant être différent, mais la question est la même.

6. Créer des fenêtres de temps pour l’analyse

  1. Dans le logiciel Dataviewer18, allez dans Fichier, puis Importer des données, et enfin Plusieurs fichiers de données EyeLink. Dans la boîte de dialogue, sélectionnez les fichiers de tous les participants.
  2. Sélectionnez une version d’évaluation. Sélectionnez l’icône carrée pour dessiner une zone d’intérêt.
    REMARQUE : Le domaine d’intérêt définit à la fois une région de l’écran et une fenêtre de temps dans l’essai. Ici, nous sélectionnerons toujours le plein écran.
  3. Pour créer TW all (Figure 2), cliquez sur l’icône de dessin et sélectionnez le plein écran. Dans la boîte de dialogue ouverte, étiquetez la zone d’intérêt comme TW_all et définissez un segment de temps correspondant à la version d’évaluation complète.
    1. Cliquez sur Enregistrer l’ensemble de domaines d’intérêt et appliquez ce modèle à tous les essais de même durée (par exemple, les structures de temps 1 et 8 du tableau 1, pour les balles et les flashs, pour tous les participants).
  4. Sélectionnez l’une des 16 structures temporelles du tableau 1. Définissez TW_0, TW_1 et TW_2 comme à l’étape 6.3, mais en suivant les limites de temps schématisées à la figure 2 (limites de fenêtre de temps correspondant aux apparitions de flash et aux écrasements de balles). La longueur de TW0 est personnalisable.
    1. Étiquetez chaque domaine d’intérêt et appliquez le modèle aux essais avec la même structure temporelle (balles et flashs, tous les participants).
    2. Répétez le processus pour les 15 structures de temps restantes.

Figure 2
Figure 2 : Type de stimulus. Séquences de balles rebondissantes (à gauche) et de flashs (à droite) qui ont été utilisées dans l’expérience. Les lignes pointillées indiquent les fenêtres temporelles utilisées pour l’analyse : TW0 est la période de pré-stimulus ; TW1 est la première apparition du stimulus à l’écran et marque le premier intervalle - lorsque le participant a des informations sur les caractéristiques des stimuli et la durée du premier intervalle, et TW2 marque le deuxième intervalle - lorsque le participant peut comparer le premier au deuxième intervalle pour élaborer une décision (ralenti ou accéléré). Veuillez cliquer ici pour voir une version agrandie de cette figure.

7. Mesures d’extraction

  1. Dans la barre de menu, cliquez sur Analyse | Rapport |Rapport sur les domaines d’intérêt.
  2. Sélectionnez les mesures suivantes pour extraire le temps d’attente, le nombre de fixations et la taille de la pupille, puis cliquez sur Suivant.
    REMARQUE : La sortie doit contenir des données provenant de 16 essais flash et 16 essais de balles rebondissantes par participant (32 essais x n participants), spécifiées pour chacune des quatre fenêtres temporelles (TW0, TW1, TW2, TW tous).
  3. Exportez la matrice sous forme de fichier .xlsx.

8. Supprimez les épreuves avec des artefacts

  1. Considérez les mesures de temps d’arrêt pour TW all et marquez les essais avec plus de 30 % de perte de signal (temps d’arrêt < 70 % du temps d’essai).
    REMARQUE : Tenez compte du fait que chacun des 32 essais a une durée différente.
  2. Excluez les sentiers bruyants (marqués) de la matrice et enregistrez-la.

9. Analyse statistique

  1. Effectuez deux analyses de variance à mesures répétées (TW x groupe x stimulus) pour chaque mesure, l’une avec TW 0 et 1, l’autre avec TW 1 et 2.
  2. Corréler les changements liés à TW avec les résultats comportementaux si disponibles.

Representative Results

Pour mieux comprendre les changements liés à TW, notre analyse s’est concentrée sur l’interaction des fenêtres temporelles (TW0 vs. TW1, TW1 vs. TW2) avec le type et le groupe de stimulus. Comme le montre la figure 3, les deux comparaisons liées à TW (TW01 et TW12) ont montré différents niveaux de changement selon le stimulus (interaction TW x stimulus), Balls provoquant plus de changements liés à TW dans les réponses oculomotrices que les flashs dans les deux groupes (pas d’interaction TW x stimulus x groupe). Cela s’est produit à la fois pour la taille de la pupille et le nombre de fixations. En ce qui concerne les influences de groupe, nous avons trouvé une interaction de groupe TW x sur le changement du nombre de fixations de TW0 à TW1 (réponse à l’apparition du stimulus) : les dyslexiques ont montré un changement diminué, principalement en raison de valeurs préstimulus plus faibles. Les interactions entre TW, stimulus et groupe étaient absentes. Cela montre que les influences du groupe étaient similaires pour les balles et les flashs.

Figure 3
Figure 3 : Résultats. Changements liés à la fenêtre temporelle de la taille de la pupille et du nombre de fixations en fonction du groupe (contrôle vs dyslexique, groupe TW x) et du type de stimulus (Balles, B, vs Flashs, F, TW x Stimulus). TW 0-1 traite du contraste entre l’absence de stimulus et la visibilité du stimulus ; TW 1-2 compare les premier et deuxième intervalles pour traiter la comparaison des intervalles. Les intervalles de confiance à 95 % sont représentés par des barres verticales. Les balles ont provoqué plus de changements que de flashs de TW0 sur TW1 (plus de diminution) et de TW1 sur TW2 (plus d’augmentation) dans les deux mesures de suivi oculaire et dans les deux groupes (TW x stimulus, pas de TW x stimulus x groupe). Les changements dans le nombre de fixations entre TW 0-1 étaient plus faibles chez les dyslexiques que chez les témoins, quel que soit le type de stimulus (groupe TW x, pas de groupe TW x stimulus x). Veuillez cliquer ici pour voir une version agrandie de cette figure.

Figure 4
Figure 4 : Résultats comportementaux. (A) Discrimination entre les séquences d’accélération et de ralentissement (d-prime) par groupe et par type de stimulus. (B) Des corrélations significatives entre les performances comportementales (d-prime) et les changements liés à la fenêtre temporelle dans les mouvements oculaires, tous deux moyennés par stimulus. Veuillez cliquer ici pour voir une version agrandie de cette figure.

De manière critique, ces valeurs sont parallèles aux résultats comportementaux (Figure 4A), conformément à l’étude principale : les résultats comportementaux ont mis en évidence des effets de stimulus (moins de précision pour les Balls que pour les Flashes) et des effets de groupe (moins bonnes performances chez les dyslexiques), sans interactions de stimulus du groupe x. De plus, dans l’étude originale avec cinq stimuli différents, nous avons corrélé les données comportementales avec les données de suivi oculaire (nombre de fixations) moyennées pour tous les types de stimulus et avons trouvé une corrélation dans le groupe dyslexique : des changements plus petits de TW0 à TW1 coexistaient avec une amélioration des performances. Dans l’ensemble, les résultats semblaient cohérents avec l’hypothèse selon laquelle ces dyslexiques (adultes) pourraient avoir recours à des stratégies compensatoires pour un contrôle délibéré de l’attention sur le stimulus lui-même dans la période de pré-stimulus (moins de fixations sur l’écran vide favoriseraient la concentration sur le stimulus au moment où il apparaît). Nous n’avons trouvé aucune corrélation de ce type chez les témoins, ce qui suggère qu’ils n’ont peut-être pas besoin de recourir à des stratégies pour rester concentrés. L’ensemble de données restreintes utilisé ici pour l’illustration (deux stimuli seulement, Balls et Flashes) a montré le même schéma (Figure 4B) : les dyslexiques, mais pas les témoins, ont montré des corrélations significatives entre d-prime (indice de discrimination comportementale) et les changements liés à TW01.

En résumé, les résultats de l’oculométrie portant sur les réponses des participants à l’apparition du stimulus (TW 0-1) et à la comparaison d’intervalles (TW 1-2) ont reproduit les preuves comportementales selon lesquelles les balles par rapport aux flashs suscitent des réponses différentes chez les personnes dyslexiques et non dyslexiques (TW x stimulus sur les mesures de suivi oculaire, effets du stimulus sur d-prime). Une partie des résultats de l’oculométrie était également parallèle aux effets de groupe sur d-prime, en ce sens que les changements dans le nombre de fixations au début du stimulus (TW 0-1) étaient plus faibles chez les dyslexiques. De plus, les interactions entre le stimulus et le groupe (différents niveaux de déviance chez les dyslexiques pour les balles et les flashs) étaient nulles pour les données comportementales et de suivi oculaire. Enfin, la corrélation entre la performance comportementale et la réponse oculomotrice était significative dans le groupe dyslexique.

Séquence Type Intervalle 1 Intervalle 2 Différence
1 Accélérer 433 300 133
2 Accélérer 300 167 133
3 Accélérer 467 433 34
4 Accélérer 733 167 566
5 Accélérer 467 300 167
6 Accélérer 433 134 299
7 Accélérer 534 233 301
8 Accélérer 500 433 67
9 Plus lentement 300 433 -133
10 Plus lentement 167 300 -133
11 Plus lentement 433 467 -34
12 Plus lentement 167 733 -566
13 Plus lentement 300 467 -167
14 Plus lentement 133 434 -301
15 Plus lentement 233 534 -301
16 Plus lentement 433 500 -67
Intervalle moyen 377.1
Différence moyenne 212.6
Différence moyenne/intervalle 294.8

Tableau 1 : Durée de l’intervalle. Séquences de stimulus pour les séquences d’accélération et de ralentissement en millisecondes.

Discussion

Le protocole actuel contient un nouvel élément qui pourrait être essentiel pour surmonter les obstacles actuels à l’intégration de l’oculométrie dans les tâches de perception de la durée visuelle. L’étape critique ici est la définition de fenêtres temporelles basées sur les processus cognitifs qui se déroulent supposément dans chacune de ces fenêtres temporelles. Dans le système que nous avons utilisé, les fenêtres temporelles ne peuvent être définies que comme des zones d’intérêt (un concept lié à l’espace qui est couplé au temps dans ces systèmes), mais dans d’autres systèmes, il est possible de le faire en exportant différents segments de l’essai. En plus de cette segmentation temporelle de l’essai, il est important de se concentrer sur l’analyse des changements à travers les fenêtres temporelles plutôt que sur les paramètres par fenêtre temporelle.

En ce qui concerne les modifications du protocole qui ont dû être apportées, elles étaient principalement liées aux dimensions de la zone d’intérêt. Nous avons fait une première tentative en utilisant des AOI dynamiques - définissant une sélection spatiale autour du stimulus qui le suit, plutôt que de l’écran entier. Cependant, nous avons vite réalisé que nous pouvions manquer des événements pertinents en dehors de cette zone. Étant donné que nos mesures n’étaient pas liées à la focalisation sur le stimulus (la taille de la pupille devait changer en fonction de la charge cognitive et non en fonction de l’attention portée au flash ou à la balle ; le nombre de fixations devait refléter la recherche spatiale), nous avons choisi d’utiliser le plein écran comme région d’intérêt.

Le protocole actuel est une proposition embryonnaire qui fait encore l’objet de nombreux raffinements. Nous n’en soulignerons que deux, même s’il y a encore beaucoup de place pour l’amélioration. La première concerne les différences de longueur des trois fenêtres temporelles, qui nous empêchent d’interpréter les effets de fenêtre temporelle sur le nombre de fixations (par exemple, une fenêtre temporelle plus longue implique plus de fixations, d’où la diminution de TW0 à TW1, voir Figure 3). Une façon de résoudre ce problème serait de considérer le nombre de fixations par unité de temps.

La seconde concerne la correspondance entre les fenêtres temporelles et les processus putatifs en cours, qui comprend diverses questions. L’une d’entre elles est que TW1 ne représente pas seulement l’apparition d’un stimulus, mais probablement aussi une forme explicite d’estimation d’intervalle (premier intervalle) subsidiaire à la comparaison d’intervalle et probablement absente dans TW0. De la même manière, les changements à travers les fenêtres temporelles peuvent également refléter des changements dans des processus généraux tels que l’attention soutenue et la mémoire de travail18, même si certains de ces changements pourraient être attendus dans une tâche de comparaison d’intervalles (la charge de la mémoire de travail devrait augmenter de TW1 à TW2). Une façon d’atténuer ces confusions potentielles serait d’introduire des tâches de contrôle liées à l’estimation pure de la durée, à l’attention soutenue et à la mémoire de travail, puis de baser l’analyse des données de suivi oculaire sur la comparaison entre les tâches expérimentales (comparaison d’intervalles) et les tâches de contrôle. Un autre problème est que la durée de TW0 n’était pas pertinente pour la tâche, et il est connu que les durées non pertinentes pour la tâche peuvent être préjudiciables à la performance19. Les travaux futurs pourraient se concentrer sur l’amélioration de cela, notamment en créant une différence de 300 ms entre TW0 (intervalle non pertinent) et TW1 pour mieux délimiter les réponses de traitement visuel, puisqu’un événement court peut être biaisé pour être perçu plus tôt ou plus tard que sa présentation en ajoutant simplement un autre événement à proximité temporelleproche 20,21.

Enfin, les clignements d’yeux spontanés peuvent affecter la perception du temps en la déformant (dilatation du temps si un clignement des yeux précède l’intervalle, contraction s’il se produit simultanément), introduisant potentiellement une variabilité dans les performances temporelles intra-individuelles22. Une façon de minimiser ce problème serait d’appliquer un facteur de correction basé sur le clignement des yeux dans les jugements comportementaux des participants (par exemple, attribuer un taux de fiabilité à chaque jugement en fonction de la présence de clignements avant ou pendant les stimuli. De plus, l’intégration de l’approche statistique consistant à traiter les essais comme des variables aléatoires peut également aider à résoudre ce problème.

En ce qui concerne les recherches futures, un sujet important à aborder serait l’association entre le taux de clignement spontané des yeux (EBR) et la perception du temps. On sait que l’EBR est un marqueur indirect non invasif de la fonction centrale de la dopamine (DA)23 et, plus récemment, un ERB élevé a été associé à une moins bonne perception temporelle. L’étude suggère une implication de la dopamine dans le temps d’intervalle et indique l’utilisation de l’ERB comme substitut de la mesure de la dopamine24. Un autre sujet important est la signification fonctionnelle des mesures (liées au changement) que nous avons analysées, qui reste à déterminer dans le contexte de notre paradigme. Dans l’étude originale, ainsi que dans l’ensemble de données simplifié actuel, les augmentations de la taille des pupilles de TW0 à TW1 étaient cohérentes avec l’idée d’une charge cognitive accrue, mais l’absence d’effets de groupe sur cette mesure empêche d’autres considérations. Une tendance qui semble se présenter est que des changements plus petits à travers les fenêtres temporelles sont corrélés à de meilleures performances comportementales (Flashes meilleurs que Balls, et d-prime chez les dyslexiques liés à des changements plus petits), mais des recherches supplémentaires sont nécessaires.

Malgré ses limites, le protocole actuel est, à notre connaissance, le premier à montrer des résultats parallèles en matière d’oculométrie et de données comportementales (même profil d’effets), ainsi que des preuves de la corrélation entre les deux.

Disclosures

Les auteurs n’ont aucun conflit d’intérêts à divulguer.

Acknowledgments

Ces travaux ont été soutenus par la Fondation portugaise pour la science et la technologie dans le cadre des subventions UIDB/00050/2020 ; et PTDC/PSI-GER/5845/2020. L’APC a été entièrement financé par la Fondation portugaise pour la science et la technologie dans le cadre de la subvention PTDC/PSI-GER/5845/2020 (http://doi.org/10.54499/PTDC/PSI-GER/5845/2020).

Materials

Name Company Catalog Number Comments
Adobe Animate Adobe It is a tool for designing flash animation films, GIFs, and cartoons.
EyeLink Data Viewer It is robust software that provides a comprehensive solution for visualizing and analyzing gaze data captured by EyeLink eye trackers. It is accessible on Windows, macOS, and Linux platforms. Equipped with advanced capabilities, Data Viewer enables effortless visualization, grouping, processing, and reporting of EyeLink gaze data.
Eye-tracking system SR Research EyeLink 1000 Portable Duo It has a portable duo camera, a Laptop PC Host, and a response device. The EyeLink integrates with SR Research Experiment Builder, Data Viewer, and WebLink as well as many third-party stimulus presentation software and tools.
Monitor Samsung Syncmaster  957DF It is a 19" flat monitor 
SR Research Experiment Builder SR Research It is an advanced and user-friendly drag-and-drop graphical programming platform designed for developing computer-based experiments in psychology and neuroscience. Utilizing Python as its foundation, this platform is compatible with both Windows and macOS, facilitating the creation of experiments that involve both EyeLink eye-tracking and non-eye-tracking functionalities.

DOWNLOAD MATERIALS LIST

References

  1. Bellinger, D., Altenmüller, E., Volkmann, J. Perception of time in music in patients with parkinson's disease - The processing of musical syntax compensates for rhythmic deficits. Frontiers in Neuroscience. 11, 68 (2017).
  2. Plourde, M., Gamache, P. L., Laflamme, V., Grondin, S. Using time-processing skills to predict reading abilities in elementary school children. Timing & Time Perception. 5 (1), 35-60 (2017).
  3. Saloranta, A., Alku, P., Peltola, M. S. Listen-and-repeat training improves perception of second language vowel duration: evidence from mismatch negativity (MMN) and N1 responses and behavioral discrimination. International Journal of Psychophysiology. 147, 72-82 (2020).
  4. Soares, A. J. C., Sassi, F. C., Fortunato-Tavares, T., Andrade, C. R. F., Befi-Lopes, D. M. How word/non-word length influence reading acquisition in a transparent language: Implications for children's literacy and development. Children (Basel). 10 (1), 49 (2022).
  5. Sousa, J., Martins, M., Torres, N., Castro, S. L., Silva, S. Rhythm but not melody processing helps reading via phonological awareness and phonological memory. Scientific Reports. 12 (1), 13224 (2022).
  6. Torres, N. L., Luiz, C., Castro, S. L., Silva, S. The effects of visual movement on beat-based vs. duration-based temporal perception. Timing & Time Perception. 7 (2), 168-187 (2019).
  7. Torres, N. L., Castro, S. L., Silva, S. Visual movement impairs duration discrimination at short intervals. Quarterly Journal of Experimental Psychology. 77 (1), 57-69 (2024).
  8. Attard, J., Bindemann, M. Establishing the duration of crimes: an individual differences and eye-tracking investigation into time estimation. Applied Cognitive Psychology. 28 (2), 215-225 (2014).
  9. Warda, S., Simola, J., Terhune, D. B. Pupillometry tracks errors in interval timing. Behavioral Neuroscience. 136 (5), 495-502 (2022).
  10. Goswami, U. A neural basis for phonological awareness? An oscillatory temporal-sampling perspective. Current Directions in Psychological Science. 27 (1), 56-63 (2018).
  11. Catronas, D., et al. Time perception for visual stimuli is impaired in dyslexia but deficits in visual processing may not be the culprits. Scientific Reports. 13, 12873 (2023).
  12. Zagermann, J., Pfeil, U., Reiterer, H. Studying eye movements as a basis for measuring cognitive load. Extended Abstracts of the 2018 CHI Conference on Human Factors in Computing Systems. , ACM Press. New York. 1-6 (2018).
  13. Rafiqi, S., et al. PupilWare: Towards pervasive cognitive load measurement using commodity devices. Proceedings of the 8th ACM International Conference on PETRA. , 1-8 (2015).
  14. Klingner, J., Kumar, R., Hanrahan, P. Measuring the task-evoked pupillary response with a remote eye tracker. Proceedings of the 2008 Symposium on ETRA. , 69-72 (2008).
  15. Mahanama, B., et al. Eye movement and pupil measures: a review. Frontiers in Computer Science. 3, 733531 (2022).
  16. Pfleging, B., Fekety, D. K., Schmidt, A., Kun, A. L. A model relating pupil diameter to mental workload and lighting conditions. Proceedings of the 2016 CHI Conference on Human Factors in Computing Systems. , 5776-5788 (2016).
  17. Cicchini, G. M. Perception of duration in the parvocellular system. Frontiers in Integrative Neuroscience. 6, 14 (2012).
  18. EyeLink Data Viewer 3.2.1. SR Research Ltd. , Available from: https://www.sr-research.com/data-viewer/ (2018).
  19. Spencer, R., Karmarkar, U., Ivry, R. Evaluating dedicated and intrinsic models of temporal encoding by varying contex. Philosophical Transactions of the Royal Society B. 364 (1525), 1853-1863 (2009).
  20. Coull, J. T. Getting the timing right: experimental protocols for investigating time with functional neuroimaging and psychopharmacology. Advances in Experimental Medicine and Biology. 829, 237-264 (2014).
  21. Burr, D., Rocca, E. D., Morrone, M. C. Contextual effects in interval-duration judgements in vision, audition and touch. Experimental Brain Research. 230 (1), 87-98 (2013).
  22. Grossman, S., Gueta, C., Pesin, S., Malach, R., Landau, A. N. Where does time go when you blink. Psychological Science. 30 (6), 907-916 (2019).
  23. Jongkees, B. J., Colzato, L. S. Spontaneous eye blink rate as predictor of dopamine-related cognitive function-a review. Neuroscience & Biobehavioral Reviews. 71, 58-82 (2016).
  24. Sadibolova, R., Monaldi, L., Terhune, D. B. A proxy measure of striatal dopamine predicts individual differences in temporal precision. Psychonomic Bulletin & Review. 29 (4), 1307-1316 (2022).

Tags

Ce mois-ci dans JoVE numéro 203
Mouvements oculaires dans la perception visuelle de la durée : démêler le stimulus du temps dans les processus prédécisionnels
Play Video
PDF DOI DOWNLOAD MATERIALS LIST

Cite this Article

Catronas, D., Lima Torres, N.,More

Catronas, D., Lima Torres, N., Silva, S. Eye Movements in Visual Duration Perception: Disentangling Stimulus from Time in Predecisional Processes. J. Vis. Exp. (203), e65990, doi:10.3791/65990 (2024).

Less
Copy Citation Download Citation Reprints and Permissions
View Video

Get cutting-edge science videos from JoVE sent straight to your inbox every month.

Waiting X
Simple Hit Counter