Summary

Entwurf und Verwendung eines Geräts zur Darstellung von Greifobjekten im 3D-Arbeitsbereich

Published: August 08, 2019
doi:

Summary

Hier wird ein Protokoll zum Aufbau eines automatischen Geräts vorgestellt, das einen Affen zur Durchführung der flexiblen Reach-to-Grasp-Aufgabe führt. Das Gerät kombiniert eine 3D-Übersetzungsvorrichtung und einen Drehtisch, um mehrere Objekte in einer beliebigen Position im 3D-Raum darzustellen.

Abstract

Das Erreichen und Greifen sind hochgekoppelte Bewegungen, und ihre zugrunde liegende neuronale Dynamik wurde in den letzten zehn Jahren weithin untersucht. Um das Erreichen und Greifen von Codierungen zu unterscheiden, ist es wichtig, unterschiedliche Objektidentitäten unabhängig von ihren Positionen darzustellen. Präsentiert wird hier das Design eines automatischen Geräts, das mit einem Drehtisch und einem dreidimensionalen (3D) Übersetzungsgerät montiert wird, um dieses Ziel zu erreichen. Der Drehtisch schaltet verschiedene Objekte, die unterschiedlichen Grifftypen entsprechen, während das 3D-Übersetzungsgerät den Drehtisch im 3D-Raum transportiert. Beide werden unabhängig von Motoren angetrieben, so dass Zielposition und Objekt beliebig kombiniert werden. Inzwischen werden die Flugbahn- und Grifftypen des Handgelenks über das Motion Capture System bzw. Touchsensoren aufgezeichnet. Darüber hinaus werden repräsentative Ergebnisse beschrieben, die erfolgreich ausgebildete Affen mit diesem System nachweisen. Es wird erwartet, dass dieser Apparat Forschern erleichtern wird, Kinematik, neuronale Prinzipien und Gehirn-Maschine-Schnittstellen im Zusammenhang mit der Funktion der oberen Gliedmaßen zu studieren.

Introduction

Verschiedene Apparate wurden entwickelt, um die neuronalen Prinzipien zu untersuchen, die dem Erreichen und Greifen der Bewegung bei nichtmenschlichen Primaten zugrunde liegen. Bei der Erreichung von Aufgaben, Touchscreen1,2, Bildschirmcursor durch einen Joystick gesteuert3,4,5,6,7, und Virtual Reality Technologie8 , 9 , 10 wurden alle für die Präsentation von 2D- bzw. 3D-Zielen eingesetzt. Um verschiedene Grifftypen einzuführen, wurden unterschiedlich geformte Objekte, die in einer Position fixiert oder um eine Achse drehen, häufig in den Greifaufgaben11,12,13verwendet. Eine Alternative besteht darin, visuelle Hinweise zu verwenden, um Probanden zu informieren, um dasselbe Objekt mit verschiedenen Grifftypen14,15,16,17zu erfassen. In jüngerer Zeit wurden das Erreichen und Greifen von Bewegungen gemeinsam untersucht (d.h. Probanden erreichen mehrere Positionen und erfassen mit verschiedenen Grifftypen in einer experimentellen Sitzung)18,19,20, 21,22,23,24,25,26,27,28,29. Frühe Experimente haben Objekte manuell vorgestellt, was unweigerlich zu geringer Zeit und räumlicher Präzision führt20,21. Um die experimentelle Präzision zu verbessern und Arbeitskräfte zu sparen, wurden automatische Präsentationsgeräte, die von Programmen gesteuert werden, weit verbreitet eingesetzt. Um die Zielposition und den Grifftyp zu variieren, haben die Experimentatoren mehrere Objekte gleichzeitig verfügbar gemacht, aber die relative (oder absolute) Position von Zielen und die Grifftypen sind miteinander verbunden, was durch Langzeittraining starre Brennmuster verursacht22 ,27,28. Objekte werden in der Regel in einer 2D-Ebene dargestellt, die die Vielfalt der Erreichen bewegung und neuronale Aktivität19,25,26begrenzt. Kürzlich wurden Virtual Reality24 und Roboterarm23,29 eingeführt, um Objekte im 3D-Raum zu präsentieren.

Hier werden detaillierte Protokolle für den Aufbau und die Verwendung eines automatisierten Geräts30 vorgestellt, das eine beliebige Kombination aus mehreren Zielpositionen und Grifftypen im 3D-Raum erreichen kann. Wir haben einen Drehtisch zum Wechseln von Objekten und ein 3D-Übersetzungsgerät entwickelt, um den Drehtisch im 3D-Raum zu transportieren. Sowohl der Drehtisch als auch die Übersetzungsvorrichtung werden von unabhängigen Motoren angetrieben. In der Zwischenzeit werden die 3D-Trajektorie des Handgelenks und der neuronalen Signale des Subjekts während des gesamten Experiments gleichzeitig aufgezeichnet. Das Gerät bietet eine wertvolle Plattform für die Untersuchung der Funktion der oberen Gliedmaßen beim Rhesusaffen.

Protocol

Alle verhaltens- und chirurgischen Eingriffe entsprachen dem Leitfaden für die Pflege und Verwendung von Labortieren (China Ministry of Health) und wurden vom Animal Care Committee der Zhejiang University, China, genehmigt. 1.Montage des 3D-Übersetzungsgeräts Bauen Sie einen Rahmen der Größe 920 mm x 690 mm x 530 mm mit Aluminium-Bauschienen (Querschnitt: 40 mm x 40 mm). Sichern Sie vier Sockel an den beiden Enden der Y-Schienen mit Schrauben (M4) (<strong class="xfig"…

Representative Results

Die Größe des kompletten Arbeitsbereichs des Geräts beträgt 600 mm, 300 mm und 500 mm in x-, y- und z-Achsen. Die maximale Belastung der 3D-Übersetzungsvorrichtung beträgt 25 kg, während der Drehtisch (einschließlich des Schrittmotors) 15 kg wiegt und mit einer Geschwindigkeit von bis zu 500 mm/s transportiert werden kann. Die kinematische Präzision des 3D-Übersetzungsgeräts beträgt weniger als 0,1 mm und das Geräusch des Geräts weniger als 60 dB. Um den Nutzen des Systems zu dem…

Discussion

Der hier beschriebene Verhaltensapparat ermöglicht eine versuchsweise Kombination unterschiedlicher Griff- und Greifbewegungen (d.h. der Affe kann unterschiedlich geformte Objekte an beliebigen 3D-Positionen in jeder Studie erfassen). Dies wird durch die Kombination eines benutzerdefinierten Drehtisches, der verschiedene Objekte umschaltet, und einer linearen Übersetzungsvorrichtung erreicht, die den Drehtisch an mehrere Positionen im 3D-Raum transportiert. Darüber hinaus konnten die neuronalen Signale des Affen, die …

Disclosures

The authors have nothing to disclose.

Acknowledgements

Wir danken Herrn Shijiang Shen für seinen Rat zur Gerätekonstruktion und Frau Guihua Wang für ihre Unterstützung bei der Tierpflege und -ausbildung. Diese Arbeit wurde unterstützt durch das National Key Research and Development Program of China (2017YFC1308501), die National Natural Science Foundation of China (31627802), die Public Projects of Zhejiang Province (2016C33059) und die Fundamental Research Funds for the Zentrale Universitäten.

Materials

Active X-rail CCM Automation technology Inc., China W50-25 Effective travel, 600 mm; Load, 25 kg
Active Y-rail CCM Automation technology Inc., China W60-35 Effective travel, 300 mm, Load 35 kg
Active Z-rail CCM Automation technology Inc., China W50-25 Effective travel, 500 mm; Load 25 kg
Bearing Taobao.com 6004-2RSH Acrylic
Case Custom mechanical processing TT-C Acrylic
Connecting ring CCM Automation technology Inc., China 57/60-W50
Connecting shaft CCM Automation technology Inc., China D12-700 Diam., 12 mm;Length, 700 mm
Diaphragm coupling CCM Automation technology Inc., China CCM 12-12 Inner diam., 12-12mm
Diaphragm coupling CCM Automation technology Inc., China CCM 12-14 Inner diam., 14-12mm
Electric slip ring Semring Inc., China SNH020a-12 Acrylic
Locating bar Custom mechanical processing TT-L Acrylic
Motion capture system Motion Analysis Corp. US Eagle-2.36
Neural signal acquisition system Blackrock Microsystems Corp. US Cerebus
NI DAQ device National Instruments, US USB-6341
Object Custom mechanical processing TT-O Acrylic
Passive Y-rail CCM Automation technology Inc., China W60-35 Effective travel, 300 mm; Load 35 kg
Passive Z-rail CCM Automation technology Inc., China W50-25 Effective travel, 500 mm; Load 25 kg
Pedestal CCM Automation technology Inc., China 80-W60
Peristaltic pump Longer Inc., China BT100-1L
Planetary gearhead CCM Automation technology Inc., China PLF60-5 Flange, 60×60 mm; Reduction ratio, 1:5
Right triangle frame CCM Automation technology Inc., China 290-300
Rotator Custom mechanical processing TT-R Acrylic
Servo motor Yifeng Inc., China 60ST-M01930 Flange, 60×60 mm; Torque, 1.91 N·m; for Y- and Z-rail
Servo motor Yifeng Inc., China 60ST-M01330 Flange, 60×60 mm; Torque, 1.27 N·m; for X-rail
Shaft Custom mechanical processing TT-S Acrylic
Stepping motor Taobao.com 86HBS120 Flange, 86×86 mm; Torque, 1.27 N·m; Driving turning table
Touch sensor Taobao.com CM-12X-5V
Tricolor LED Taobao.com CK017, RGB
T-shaped connecting board CCM Automation technology Inc., China 110-120

References

  1. Leone, F. T., Monaco, S., Henriques, D. Y., Toni, I., Medendorp, W. P. Flexible Reference Frames for Grasp Planning in Human Parietofrontal Cortex. eNeuro. 2 (3), (2015).
  2. Caminiti, R., et al. Early coding of reaching: frontal and parietal association connections of parieto-occipital cortex. European Journal of Neuroscience. 11 (9), 3339-3345 (1999).
  3. Georgopoulos, A. P., Schwartz, A. B., Kettner, R. E. Neuronal population coding of movement direction. Science. 233 (4771), 1416-1419 (1986).
  4. Fu, Q. G., Flament, D., Coltz, J. D., Ebner, T. J. Temporal encoding of movement kinematics in the discharge of primate primary motor and premotor neurons. Journal of Neurophysiology. 73 (2), 836-854 (1995).
  5. Moran, D. W., Schwartz, A. B. Motor cortical representation of speed and direction during reaching. Journal of Neurophysiology. 82 (5), 2676-2692 (1999).
  6. Carmena, J. M., et al. Learning to control a brain-machine interface for reaching and grasping by primates. PLoS Biology. 1 (2), E42 (2003).
  7. Li, H., et al. Prior Knowledge of Target Direction and Intended Movement Selection Improves Indirect Reaching Movement Decoding. Behavioral Neurology. , 2182843 (2017).
  8. Reina, G. A., Moran, D. W., Schwartz, A. B. On the relationship between joint angular velocity and motor cortical discharge during reaching. Journal of Neurophysiology. 85 (6), 2576-2589 (2001).
  9. Taylor, D. M., Tillery, S. I., Schwartz, A. B. Direct cortical control of 3D neuroprosthetic devices. Science. 296 (5574), 1829-1832 (2002).
  10. Wang, W., Chan, S. S., Heldman, D. A., Moran, D. W. Motor cortical representation of hand translation and rotation during reaching. Journal of Neuroscience. 30 (3), 958-962 (2010).
  11. Murata, A., Gallese, V., Luppino, G., Kaseda, M., Sakata, H. Selectivity for the shape, size, and orientation of objects for grasping in neurons of monkey parietal area AIP. Journal of Neurophysiology. 83 (5), 2580-2601 (2000).
  12. Raos, V., Umiltá, M. A., Murata, A., Fogassi, L., Gallese, V. Functional Properties of Grasping-Related Neurons in the Ventral Premotor Area F5 of the Macaque Monkey. Journal of Neurophysiology. 95 (2), 709 (2006).
  13. Schaffelhofer, S., Scherberger, H. Object vision to hand action in macaque parietal, premotor, and motor cortices. eLife. 5, (2016).
  14. Baumann, M. A., Fluet, M. C., Scherberger, H. Context-specific grasp movement representation in the macaque anterior intraparietal area. Journal of Neuroscience. 29 (20), 6436-6448 (2009).
  15. Riehle, A., Wirtssohn, S., Grun, S., Brochier, T. Mapping the spatio-temporal structure of motor cortical LFP and spiking activities during reach-to-grasp movements. Frontiers in Neural Circuits. 7, 48 (2013).
  16. Michaels, J. A., Scherberger, H. Population coding of grasp and laterality-related information in the macaque fronto-parietal network. Scientific Reports. 8 (1), 1710 (2018).
  17. Fattori, P., et al. Hand orientation during reach-to-grasp movements modulates neuronal activity in the medial posterior parietal area V6A. Journal of Neuroscience. 29 (6), 1928-1936 (2009).
  18. Asher, I., Stark, E., Abeles, M., Prut, Y. Comparison of direction and object selectivity of local field potentials and single units in macaque posterior parietal cortex during prehension. Journal of Neurophysiology. 97 (5), 3684-3695 (2007).
  19. Stark, E., Asher, I., Abeles, M. Encoding of reach and grasp by single neurons in premotor cortex is independent of recording site. Journal of Neurophysiology. 97 (5), 3351-3364 (2007).
  20. Velliste, M., Perel, S., Spalding, M. C., Whitford, A. S., Schwartz, A. B. Cortical control of a prosthetic arm for self-feeding. Nature. 453 (7198), 1098-1101 (2008).
  21. Vargas-Irwin, C. E., et al. Decoding complete reach and grasp actions from local primary motor cortex populations. Journal of Neuroscience. 30 (29), 9659-9669 (2010).
  22. Mollazadeh, M., et al. Spatiotemporal variation of multiple neurophysiological signals in the primary motor cortex during dexterous reach-to-grasp movements. Journal of Neuroscience. 31 (43), 15531-15543 (2011).
  23. Saleh, M., Takahashi, K., Hatsopoulos, N. G. Encoding of coordinated reach and grasp trajectories in primary motor cortex. Journal of Neuroscience. 32 (4), 1220-1232 (2012).
  24. Collinger, J. L., et al. High-performance neuroprosthetic control by an individual with tetraplegia. The Lancet. 381 (9866), 557-564 (2013).
  25. Lehmann, S. J., Scherberger, H. Reach and gaze representations in macaque parietal and premotor grasp areas. Journal of Neuroscience. 33 (16), 7038-7049 (2013).
  26. Rouse, A. G., Schieber, M. H. Spatiotemporal distribution of location and object effects in reach-to-grasp kinematics. Journal of Neuroscience. 114 (6), 3268-3282 (2015).
  27. Rouse, A. G., Schieber, M. H. Spatiotemporal Distribution of Location and Object effects in Primary Motor Cortex Neurons during Reach-to-Grasp. Journal of Neuroscience. 36 (41), 10640-10653 (2016).
  28. Hao, Y., et al. Neural synergies for controlling reach and grasp movement in macaques. Neuroscience. 357, 372-383 (2017).
  29. Takahashi, K., et al. Encoding of Both Reaching and Grasping Kinematics in Dorsal and Ventral Premotor Cortices. Journal of Neuroscience. 37 (7), 1733-1746 (2017).
  30. Chen, J., et al. An automated behavioral apparatus to combine parameterized reaching and grasping movements in 3D space. Journal of Neuroscience Methods. 312, 139-147 (2019).
  31. Zhang, Q., et al. Development of an invasive brain-machine interface with a monkey model. Chinese Science Bulletin. 57 (16), 2036 (2012).
  32. Hao, Y., et al. Distinct neural patterns enable grasp types decoding in monkey dorsal premotor cortex. Journal of Neural Engineering. 11 (6), 066011 (2014).
check_url/59932?article_type=t

Play Video

Cite This Article
Xu, K., Chen, J., Sun, G., Hao, Y., Zhang, S., Ran, X., Chen, W., Zheng, X. Design and Use of an Apparatus for Presenting Graspable Objects in 3D Workspace. J. Vis. Exp. (150), e59932, doi:10.3791/59932 (2019).

View Video