Summary

Analyse vidéo image par image des mouvements de Reach à comprendre idiosyncrasiques chez l’homme

Published: January 15, 2018
doi:

Summary

Ce protocole décrit comment utiliser analyse vidéo image par image pour quantifier idiosyncrasiques portée à comprendre les mouvements chez les humains. Une analyse comparative des atteignant en aperçue par rapport aux non-voyants adultes en bonne santé est utilisé pour démontrer la technique, mais la méthode peut également être appliquée à l’étude des populations cliniques et du développement.

Abstract

Préhension, la Loi d’atteindre pour saisir un objet, est au cœur de l’expérience humaine. Nous l’utilisons pour nous nourrir, panser nous-mêmes et manipuler les objets et outils dans notre environnement. Ces comportements sont affaiblies par les nombreux troubles sensorimoteurs, pourtant notre compréhension actuelle de leur contrôle neural est loin d’être terminée. Les technologies actuelles pour des mouvements humains chargée de l’enquête de portée à comprendre utilisent souvent des systèmes qui peuvent être coûteux, nécessite la fixation de marqueurs ou de capteurs sur les mains, entraver le mouvement naturel et rétroaction sensorielle et fournir cinématique de suivi de mouvement sortie qui peut être difficile à interpréter. Alors que généralement efficaces pour étudier les mouvements de portée à comprendre stéréotypées des malvoyants adultes en bonne santé, bon nombre de ces technologies face à limitations supplémentaires lorsque vous tentez d’étudier les mouvements de portée à comprendre imprévisibles et singulière de des jeunes enfants, adultes aveugles et les patients atteints de troubles neurologiques. Ainsi, nous présentons un protocole nouveau, peu coûteux et très fiable mais souple pour quantifier la structure temporelle et cinématique des mouvements de portée à comprendre idiosyncrasiques chez les humains. Caméras vidéo à haute vitesse capture plusieurs vues du mouvement portée à comprendre. Analyse vidéo image par image est ensuite utilisé pour documenter le timing et l’ampleur des prédéfinis événements comportements comme le début du mouvement, collection, hauteur maximale, ouverture max., premier contact et saisir final. La structure temporelle du mouvement est reconstruite en documentant le numéro du cadre relative de chaque événement, tandis que la structure cinématique de la main est quantifiée à l’aide de la fonction de dirigeant ou de mesure dans le logiciel de retouche photo pour calibrer 2 dimensions linéaires distance entre les deux parties du corps, ou entre une partie du corps et la cible. Analyse vidéo image par image peut fournir une description quantitative et globale de singulière portée à comprendre les mouvements et permettra aux chercheurs d’étendre leur domaine de recherche à inclure un plus grand nombre de naturalistes préhensile comportements, guidés par une plus grande variété de modalités sensorielles, dans les populations cliniques et en santé.

Introduction

Préhension, la Loi d’atteindre pour saisir un objet, est utilisée pour de nombreuses fonctions quotidiennes, y compris l’acquisition de produits alimentaires pour manger, toilettage, manipulant des objets, maniant les outils et la communication par le geste et parole écrite. La théorie plus importante concernant le contrôle neurocomportementales de la préhension, la mémoire bicanale Visuomotor théorie1,2,3,4, propose que la préhension consiste en deux mouvements – une portée qui transporte la main à l’emplacement de la cible et une compréhension qui s’ouvre, les formes et ferme la main à la taille et la forme de la cible. Les deux mouvements sont véhiculées par des voies nerveuses dissociables mais qui interagissent de visual cortex moteur via le lobe pariétal1,2,3,4. Soutien comportemental pour la théorie de Visuomotor bicanale a été ambigu, en grande partie dû au fait que le mouvement de portée à comprendre apparaît comme un acte unique sans soudure et se déroule avec peu d’effort conscient. Néanmoins, la préhension est presque toujours étudiée dans le contexte de la préhension visuellement guidée au cours duquel un participant en bonne santé atteint pour saisir un objet cible visible. Dans ces circonstances, l’action apparaît comme un mouvement unique qui se déroule d’une manière prévisible et stéréotypée. Avant le début de la portée, les yeux se focaliser sur la cible. Que le bras s’étend les chiffres ouvrir, preshape à la taille de l’objet et par la suite commencent à fermer. Les yeux se désengager de la cible juste avant le contact de la cible et dernière portée de la cible suit presque immédiatement par la suite5. Lorsque la vision est supprimée, cependant, la structure du mouvement est fondamentalement différente. Le mouvement se dissocie de ses éléments constitutifs tels qu’un accès généreux est tout d’abord utilisé pour localiser la cible en appuyant sur elle et puis haptiques cues associés à la cible contact guide mise en forme et de fermeture de la main de saisir6.

Quantification du mouvement portée à comprendre est plus souvent réalisée à l’aide d’un système de suivi 3 Dimensions (3D) motion. Il peut s’agir des systèmes de suivi infrarouge, électromagnétiques des systèmes, de suivi ou vidéo à partir des systèmes de suivi. Ces systèmes sont efficaces pour l’acquisition des mesures cinématiques de la préhension chez les participants adultes sains, effectuant des mouvements stéréotypés de portée à comprendre vers objets cibles visibles, ils ont un certain nombre d’inconvénients. En plus d’être très coûteux, ces systèmes nécessitent la fixation des capteurs ou des marqueurs sur le bras, la main et les chiffres du participant. Ceux-ci sont généralement attachés à l’aide de ruban adhésif médical, ce qui peut entraver la rétroaction tactile de la main, modifier le comportement moteur naturel et distraire les participants7. Comme ces systèmes produisent généralement des sortie numérique associé à différentes variables cinématiques comme accélération, décélération et vitesse, ils ne sont pas aussi idéales pour étudier comment la main entre en contact avec la cible. Quand à l’aide de ces systèmes, des capteurs supplémentaires ou des équipements sont nécessaires pour déterminer quelle partie de la main fait entrer en contact avec la cible, où sur la cible de contact se produit, et comment la configuration de la main peut changer en commander pour manipuler la cible. En outre, les systèmes de suivi infrarouge, qui sont les plus couramment utilisés, nécessitent l’utilisation d’un appareil spécialisé pour suivre l’emplacement des bornes sur la main dans un espace 3D6. Cela nécessite une ligne de vue directe entre la caméra et les capteurs sur la main. À ce titre, les idiosyncrasies dans le mouvement risquent d’occulter cette ligne de mire et entraîner la perte de données critiques de cinématiques. Il y a, cependant, un grand nombre d’instances dans lesquelles idiosyncrasies dans le mouvement de portée à comprendre sont en fait la norme. Il s’agit au début du développement quand les enfants apprennent juste atteindre et saisir des objets ; Lorsque l’objet cible n’est pas visible et tactiles indices doivent servir à orienter la portée et l’emprise ; Lorsque l’objet cible est une forme étrange ou la texture ; et lorsque le participant présente avec l’un d’une variété de troubles sensorimoteurs comme un accident vasculaire cérébral, maladie de Huntington, maladie de Parkinson, paralysie cérébrale, etc. dans tous ces cas, le mouvement de portée à comprendre n’est ni prévisible ni stéréotypée, ni est il nécessairement guidé par vision. Par conséquent, la capacité de mouvement 3D, systèmes de suivi pour mesurer avec fiabilité la structure temporelle et cinématique de ces mouvements peut être très limitée en raison de perturbations dans la rétroaction sensorielle de la main, les changements dans le comportement moteur naturel, perte de données, et/ou de difficultés d’interprétation de la sortie de cinématique idiosyncrasique de ces dispositifs.

Le présent document décrit une technique originale pour quantifier idiosyncrasiques portée à comprendre les mouvements dans diverses populations humaines qui est abordable, n’entrave pas la rétroaction sensorielle de la main ou du comportement moteur naturel et est fiable mais peut être avec souplesse modifié pour convenir à une variété de paradigmes expérimentaux. La technique consiste à l’aide de multiples caméras de vidéo à haute vitesse pour enregistrer le mouvement portée à comprendre sous plusieurs angles. La vidéo est ensuite analysée en mode hors connexion par progresse grâce aux images un à la fois et à l’aide d’une inspection visuelle pour documenter les événements comportementaux clés qui, ensemble, fournissent une description quantifiée de l’organisation temporelle et la cinématique de la portée à comprendre mouvement. Le présent document décrit une analyse comparative des visuellement – versus nonvisually guidée de mouvements portée à comprendre dans les adultes en bonne santé humaine6,8,9,10 afin de démontrer l’efficacité de la technique ; Toutefois, des versions modifiées de la technique ont également été utilisées pour quantifier les actions de portée à comprendre des bébés humains11 et les primates non humains12. Les résultats complets de l’analyse vidéo image par image de ces études sont parmi les premiers à fournir la preuve comportementale à l’appui de la théorie de Visuomotor bicanale de la préhension.

Protocol

Toutes les procédures avec des participants humains ont été approuvés par le Comité de recherche sujets humains Université de Lethbridge et l’éthique de la recherche Université Thompson Rivers pour Conseil de sujets humains. 1. les participants Obtenir le consentement éclairé des adultes qui ont une vision normale ou corrigée-à la normale et sont d’une bonne santé sans antécédents de troubles neurologiques ou sensorimotrices (à moins que l’objectif est d’étud…

Representative Results

Cette section fournit des exemples des résultats pouvant être obtenus lorsque vous utilisez analyse vidéo image par image pour enquêter sur idiosyncrasiques mouvements portée à comprendre sous direction sensorielle non visuelle. La principale conclusion est que, lorsque les participants peuvent utiliser vision d’identifier préventivement les deux l’extrinsèque (emplacement/orientation) et propriétés intrinsèques (taille/forme) d’une cible d’objet qu’ils intègrent la po…

Discussion

Le présent document explique comment utiliser l’analyse vidéo image par image pour quantifier l’organisation temporelle, structure cinématique et un sous-ensemble des caractéristiques topographiques de mouvements humains de portée à comprendre. La technique permet d’étudier les mouvements de portée à comprendre visuellement guidée typiques, mais aussi singulière portée à comprendre les mouvements. Ces mouvements sont difficiles à étudier à l’aide de systèmes de suivi de mouvement 3D traditionnel,…

Disclosures

The authors have nothing to disclose.

Acknowledgements

Les auteurs aimeraient remercier Alexis M. Wilson et Marisa E. Bertoli pour leur aide avec le tournage et la préparation de la vidéo de ce manuscrit. Cette recherche a été financée par les Sciences naturelles et génie conseil de recherches (JMK, JRK, IQW), Alberta Innovates-Health Solutions (JMK) et l’instituts de recherche en santé du Canada (IQW).

Materials

High Speed Video Cameras Casio http://www.casio-intl.com/asia-mea/en/dc/ex_f1/ or http://www.casio-intl.com/asia-mea/en/dc/ex_100/ Casio EX-F1 High Speed Camera or Casio EX-100 High Speed Camera used to collect high speed video records
Adobe Photoshop Adobe http://www.adobe.com/ca/products/photoshop.html Software used to calibrate and measure distances on individual video frames
Adobe Premiere Pro Adobe http://www.adobe.com/ca/products/premiere.html?sdid=KKQOM&mv=search&s_kwcid=AL!3085!3!193588412847!e!!g!!adobe%20premiere%20pro&ef_id=WDd17AAABAeTD6-D:20170606160204:s Software used to perform Frame-by-Frame Video Analysis
Height-Adjustable Pedestal Sanus http://www.sanus.com/en_US/products/speaker-stands/htb3/ A height adjustable speaker stand with a custom made 9 cm x 9 cm x 9 cm triangular top plate attached to the top with a screw is used as a reaching pedestal
1 cm Calibration Cube Learning Resources (Walmart) https://www.walmart.com/ip/Learning-Resources-Centimeter-Cubes-Set-500/24886372 A 1 cm plastic cube is used to transform distance measures from pixels to centimeters
Studio Light Dot Line https://www.bhphotovideo.com/c/product/1035910-REG/dot_line_rs_5620_1600w_led_light.html Strong lamp with cool LED light used to illumate the participant and testing area
3 Dimensional (3D) Sleep Mask Kfine https://www.amazon.com/Kfine-Sleeping-Contoured-lightweight-Comfortable/dp/B06W5CDY78?th=1 Used as a blindfold to occlude vision in the No Vision condition
Orange Slices N/A N/A Orange slices served as the large sized reaching targets
Donut Balls Tim Hortons http://www.timhortons.com/ca/en/menu/timbits.php Old fashion plain timbits from Tim Hortons served as the medium sized reaching targets
Blueberries N/A N/A Blueberries served as the small sized reaching targets

References

  1. Karl, J. M., Whishaw, I. Q. Different evolutionary origins for the Reach and the Grasp: an explanation for dual visuomotor channels in primate parietofrontal cortex. Front Neurol. 4 (208), (2013).
  2. Whishaw, I. Q., Karl, J. M. The contribution of the reach and the grasp to shaping brain and behaviour. Can J Exp Psychol. 68 (4), 223-235 (2014).
  3. Jeannerod, M., Long, J., Badeley, A. Intersegmental coordination during reaching at natural visual objects. Attention and Performance IX. , 153-169 (1981).
  4. Arbib, M. A., Brooks, V. B. Perceptual structures and distributed motor control. Handbook of Physiology. 2, 1449-1480 (1981).
  5. De Bruin, N., Sacrey, L. A., Brown, L. A., Doan, J., Whishaw, I. Q. Visual guidance for hand advance but not hand withdrawal in a reach-to-eat task in adult humans: reaching is a composite movement. J Mot Behav. 40 (4), 337-346 (2008).
  6. Karl, J. M., Sacrey, L. A., Doan, J. B., Whishaw, I. Q. Hand shaping using hapsis resembles visually guided hand shaping. Exp Brain Res. 219 (1), 59-74 (2012).
  7. Domellöff, E., Hopkins, B., Francis, B., Rönnqvist, L. Effects of finger markers on the kinematics of reaching movements in young children and adults. J Appl Biomech. 23 (4), 315-321 (2007).
  8. Karl, J. M., Sacrey, L. A., Doan, J. B., Whishaw, I. Q. Oral hapsis guides accurate hand preshaping for grasping food targets in the mouth. Exp Brain Res. 221 (2), 223-240 (2012).
  9. Karl, J. M., Schneider, L. R., Whishaw, I. Q. Nonvisual learning of intrinsic object properties in a reaching task dissociates grasp from reach. Exp Brain Res. 225 (4), 465-477 (2013).
  10. Hall, L. A., Karl, J. M., Thomas, B. L., Whishaw, I. Q. Reach and Grasp reconfigurations reveal that proprioception assists reaching and hapsis assists grasping in peripheral vision. Exp Brain Res. 232 (9), 2807-2819 (2014).
  11. Karl, J. M., Whishaw, I. Q. Haptic grasping configurations in early infancy reveal different developmental profiles for visual guidance of the Reach versus the Grasp. Exp Brain Res. 232 (9), 3301-3316 (2014).
  12. Whishaw, I. Q., Karl, J. M., Humphrey, N. K. Dissociation of the Reach and the Grasp in the destriate (V1) monkey Helen: a new anatomy for the dual visuomotor channel theory of reaching. Exp Brain Res. 234 (8), 2351-2362 (2016).
  13. Timmann, D., Stelmach, G. E., Bloedel, J. R. Grasping component alterations and limb transport. Exp Brain Res. 108 (3), 486-492 (1996).
  14. Saling, M., Mescheriakov, S., Molokanova, E., Stelmach, G. E., Berger, M. Grip reorganization during wrist transport: the influence of an altered aperture. Exp Brain Res. 108 (3), 493-500 (1996).
  15. Whishaw, I. Q., Faraji, J., Kuntz, J., Mirza Ahga, B., Patel, M., Metz, G. A. S., et al. Organization of the reach and grasp in head-fixed vs freely-moving mice provides support for multiple motor channel theory of neocortical organization. Exp Brain Res. 235 (6), 1919-1932 (2017).
check_url/56733?article_type=t

Play Video

Cite This Article
Karl, J. M., Kuntz, J. R., Lenhart, L. A., Whishaw, I. Q. Frame-by-Frame Video Analysis of Idiosyncratic Reach-to-Grasp Movements in Humans. J. Vis. Exp. (131), e56733, doi:10.3791/56733 (2018).

View Video