Summary

Система виртуальной реальности с открытым исходным кодом для измерения пространственного обучения у мышей с ограниченной головой

Published: March 03, 2023
doi:

Summary

Здесь мы представляем упрощенную аппаратную и программную установку с открытым исходным кодом для исследования пространственного обучения мыши с использованием виртуальной реальности (VR). Эта система отображает виртуальную линейную дорожку для мыши с головой, работающей на колесе, используя сеть микроконтроллеров и одноплатный компьютер, на котором работает простой в использовании графический программный пакет Python.

Abstract

Поведенческие эксперименты с головой на мышах позволяют нейробиологам наблюдать активность нейронных цепей с помощью электрофизиологических и оптических инструментов визуализации с высоким разрешением, доставляя точные сенсорные стимулы ведущему себя животному. Недавние исследования на людях и грызунах с использованием сред виртуальной реальности (VR) показали, что VR является важным инструментом для раскрытия нейронных механизмов, лежащих в основе пространственного обучения в гиппокампе и коре, благодаря чрезвычайно точному контролю над такими параметрами, как пространственные и контекстуальные сигналы. Однако создание виртуальных сред для пространственного поведения грызунов может быть дорогостоящим и требует обширного опыта в области инженерии и компьютерного программирования. Здесь мы представляем простую, но мощную систему, основанную на недорогом модульном аппаратном и программном обеспечении с открытым исходным кодом, которая позволяет исследователям изучать пространственное обучение у мышей с ограниченной головой с использованием среды виртуальной реальности. Эта система использует связанные микроконтроллеры для измерения локомоции и доставки поведенческих стимулов, в то время как мыши с головой работают на колесе в сочетании с виртуальной линейной средой трека, визуализируемой графическим программным пакетом, работающим на одноплатном компьютере. Акцент на распределенной обработке позволяет исследователям разрабатывать гибкие модульные системы для выявления и измерения сложного пространственного поведения у мышей, чтобы определить связь между активностью нейронных цепей и пространственным обучением в мозге млекопитающих.

Introduction

Пространственная навигация — это этологически важное поведение, с помощью которого животные кодируют особенности новых мест в когнитивную карту, которая используется для поиска областей возможного вознаграждения и избегания областей потенциальной опасности. Неразрывно связанные с памятью когнитивные процессы, лежащие в основе пространственной навигации, имеют общий нейронный субстрат в гиппокампе1 и коре головного мозга, где нейронные цепи в этих областях интегрируют поступающую информацию и формируют когнитивные карты окружающей среды и событий для последующего вспоминания2. В то время как открытие клеток места в гиппокампе3,4 и клеток сетки в энторинальной коре5 пролило свет на то, как формируется когнитивная карта в гиппокампе, остается много вопросов о том, как конкретные нейронные подтипы, микросхемы и отдельные субрегионы гиппокампа (зубчатая извилина и области рогового аммониса, CA3-1) взаимодействуют и участвуют в формировании пространственной памяти и воспоминании.

Двухфотонная визуализация in vivo была полезным инструментом для выявления клеточной и популяционной динамики в сенсорной нейрофизиологии 6,7; Однако типичная необходимость в подголовниках ограничивает полезность этого метода для изучения пространственного поведения млекопитающих. Появление виртуальной реальности (VR)8 устранило этот недостаток, представив иммерсивные и реалистичные зрительно-пространственные среды, в то время как мыши с головой бегают по мячу или беговой дорожке для изучения пространственного и контекстуального кодирования в гиппокампе 8,9,10 и коре11. Кроме того, использование сред виртуальной реальности с ведущими себя мышами позволило исследователям в области нейробиологии анализировать компоненты пространственного поведения, точно контролируя элементы средывиртуальной реальности 12 (например, визуальный поток, контекстуальную модуляцию) способами, невозможными в реальных экспериментах по пространственному обучению, таких как водный лабиринт Морриса, лабиринт Барнса или задачи на доске с отверстиями.

Визуальные среды виртуальной реальности обычно визуализируются на графическом процессоре (GPU) компьютера, который обрабатывает нагрузку быстрого вычисления тысяч полигонов, необходимых для моделирования движущейся 3D-среды на экране в режиме реального времени. Большие требования к обработке, как правило, требуют использования отдельного ПК с графическим процессором, который отображает визуальную среду на мониторе, нескольких экранах13 или проекторе14 , поскольку движение записывается с беговой дорожки, колеса или пенопластового мяча под животным. Таким образом, полученное устройство для управления, рендеринга и проецирования среды виртуальной реальности является относительно дорогим, громоздким и громоздким. Кроме того, многие такие среды в литературе были реализованы с использованием проприетарного программного обеспечения, которое является дорогостоящим и может быть запущено только на выделенном ПК.

По этим причинам мы разработали систему виртуальной реальности с открытым исходным кодом для изучения поведения пространственного обучения у мышей с ограниченной головой с использованием одноплатного компьютера Raspberry Pi. Этот компьютер с Linux маленький и недорогой, но содержит чип графического процессора для 3D-рендеринга, что позволяет интегрировать среды виртуальной реальности с дисплеем или поведенческим устройством в различных индивидуальных настройках. Кроме того, мы разработали графический программный пакет, написанный на Python, «HallPassVR», который использует одноплатный компьютер для рендеринга простой визуально-пространственной среды, виртуальной линейной дорожки или коридора, путем рекомбинации пользовательских визуальных функций, выбранных с помощью графического пользовательского интерфейса (GUI). Это сочетается с микроконтроллерными подсистемами (например, ESP32 или Arduino) для измерения локомоции и координации поведения, например, путем доставки других модальностей сенсорных стимулов или вознаграждений для облегчения обучения с подкреплением. Эта система предоставляет недорогой, гибкий и простой в использовании альтернативный метод доставки зрительно-пространственных сред виртуальной реальности мышам с ограниченной головой во время двухфотонной визуализации (или других методов, требующих фиксации головы) для изучения нейронных цепей, лежащих в основе поведения пространственного обучения.

Protocol

Все процедуры в этом протоколе были одобрены Комитетом по уходу за животными и их использованию Психиатрического института штата Нью-Йорк. ПРИМЕЧАНИЕ: Одноплатный компьютер используется для отображения визуальной среды виртуальной реальности, согласованной с бегом мы…

Representative Results

Эта поведенческая установка виртуальной реальности с открытым исходным кодом позволила нам количественно оценить поведение при облизывании как считывание пространственного обучения, когда мыши с головой перемещались по виртуальной линейной среде трека. Семь мышей C57BL / 6 обоих полов …

Discussion

Эта VR-система с открытым исходным кодом для мышей будет функционировать только в том случае, если последовательные соединения между поворотным и поведенческим микроконтроллерами ESP32 и одноплатным компьютером будут выполнены должным образом (шаг 2), что может быть подтверждено с помощь…

Declarações

The authors have nothing to disclose.

Acknowledgements

Мы хотели бы поблагодарить Ноа Петтита из лаборатории Харви за обсуждение и предложения при разработке протокола в этой рукописи. Эта работа была поддержана премией BBRF Young Investigator Award и NIMH 1R21MH122965 (G.F.T.), в дополнение к NINDS R56NS128177 (R.H., C.L.) и NIMH R01MH068542 (R.H.).

Materials

1/4 " diam aluminum rod McMaster-Carr 9062K26 3" in length for wheel axle
1/4"-20 cap screws, 3/4" long (x2) Amazon.com B09ZNMR41V for affixing head post holders to optical posts
2"x7" T-slotted aluminum bar (x2) 8020.net 1020 wheel/animal mounting frame
6" diam, 3" wide acrylic cylinder (1/8" thick) Canal Plastics 33210090702 Running wheel (custom width cut at canalplastics.com)
8-32 x 1/2" socket head screws McMaster-Carr 92196A194 fastening head post holder to optical post 
Adjustable arm (14") Amazon.com B087BZGKSL to hold/adjust lick spout
Analysis code (MATLAB) custom written file at github.com/GergelyTuri/HallPassVR/software/Analysis code
Axle mounting flange, 1/4" ID Pololu 1993 for mounting wheel to axle
Ball bearing (5/8" OD, 1/4" ID, x2) McMaster-Carr 57155K324 for mounting wheel axle to frame
Behavior ESP32 code custom written file at github.com/GergelyTuri/HallPassVR/software/Arduino code/Behavior board
Black opaque matte acrylic sheets (1/4" thick) Canal Plastics 32918353422 laser cut file at github.com/GergelyTuri/HallPassVR/hardware/VR screen assembly
Clear acrylic sheet (1/4" thick) Canal Plastics 32920770574 laser cut file at github.com/GergelyTuri/HallPassVR/hardware/VR wheel assembly
ESP32 devKitC v4 (x2) Amazon.com B086YS4Z3F microcontroller for behavior and rotary encoder
ESP32 shield OpenMaze.org OMwSmall description at www.openmaze.org (https://claylacefield.wixsite.com/openmazehome/copy-of-om2shield). ZIP gerber files at: https://github.com/claylacefield/OpenMaze/tree/master/OM_PCBs
Fasteners and brackets  8020.net 4138, 3382,3280 for wheel frame mounts
goniometers Edmund Optics 66-526, 66-527 optional for behavior. Fine tuning head for imaging
HallPassVR python code custom written file at github.com/GergelyTuri/HallPassVR/software/HallPassVR
Head post holder custom design 3D design file at github.com/GergelyTuri/HallPassVR/hardware/VR head mount/Headpost Clamp
LED projector Texas Instruments DLPDLCR230NPEVM or other small LED projector
Lick spout VWR 20068-638 (or ~16 G metal hypodermic tubing)
M 2.5 x 6 set screws McMaster-Carr 92015A097 securing head post 
Matte white diffusion paper Amazon.com screen material
Metal headposts custom design 3D design file at github.com/GergelyTuri/HallPassVR/hardware/VR head mount/head post designs
Miscellenous tubing and tubing adapters (1/16" ID) for constructing the water line
Optical breadboard Thorlabs as per user's requirements
Optical posts, 1/2" diam (2x) Thorlabs TR4 for head fixation setup
Processing code custom written file at github.com/GergelyTuri/HallPassVR/software/Processing code
Raspberry Pi 4B raspberry.com, adafruit.com Single-board computer for rendering of HallPassVR envir.
Right angle clamp Thorlabs RA90 for head fixation setup
Rotary encoder (quadrature, 256 step) DigiKey ENS1J-B28-L00256L to measure wheel rotation
Rotary encoder ESP32 code custom written file at github.com/GergelyTuri/HallPassVR/software/Arduino code/Rotary encoder
SCIGRIP 10315 acrylic cement Amazon.com
Shaft coupler McMaster-Carr 9861T426 to couple rotary encoder shaft with axle
Silver mirror acrylic sheets Canal Plastics 32913817934 laser cut file at github.com/GergelyTuri/HallPassVR/hardware/VR screen assembly
Solenoid valve Parker 003-0137-900 to administer water rewards

Referências

  1. Lisman, J., et al. Viewpoints: How the hippocampus contributes to memory, navigation and cognition. Nature Neuroscience. 20 (11), 1434-1447 (2017).
  2. Buzsaki, G., Moser, E. I. Memory, navigation and theta rhythm in the hippocampal-entorhinal system. Nature Neuroscience. 16 (2), 130-138 (2013).
  3. O’Keefe, J., Dostrovsky, J. The hippocampus as a spatial map. Preliminary evidence from unit activity in the freely-moving rat. Brain Research. 34 (1), 171-175 (1971).
  4. O’Keefe, J. Place units in the hippocampus of the freely moving rat. Experimental Neurology. 51 (1), 78-109 (1976).
  5. Fyhn, M., Molden, S., Witter, M. P., Moser, E. I., Moser, M. B. Spatial representation in the entorhinal cortex. Science. 305 (5688), 1258-1264 (2004).
  6. Letzkus, J. J., et al. A disinhibitory microcircuit for associative fear learning in the auditory cortex. Nature. 480 (7377), 331-335 (2011).
  7. Lacefield, C. O., Pnevmatikakis, E. A., Paninski, L., Bruno, R. M. Reinforcement learning recruits somata and apical dendrites across layers of primary sensory cortex. Cell Reports. 26 (8), 2000-2008 (2019).
  8. Dombeck, D. A., Harvey, C. D., Tian, L., Looger, L. L., Tank, D. W. Functional imaging of hippocampal place cells at cellular resolution during virtual navigation. Nature Neuroscience. 13 (11), 1433-1440 (2010).
  9. Gauthier, J. L., Tank, D. W. A dedicated population for reward coding in the hippocampus. Neuron. 99 (1), 179-193 (2018).
  10. Rickgauer, J. P., Deisseroth, K., Tank, D. W. Simultaneous cellular-resolution optical perturbation and imaging of place cell firing fields. Nature Neuroscience. 17 (12), 1816-1824 (2014).
  11. Yadav, N., et al. Prefrontal feature representations drive memory recall. Nature. 608 (7921), 153-160 (2022).
  12. Priestley, J. B., Bowler, J. C., Rolotti, S. V., Fusi, S., Losonczy, A. Signatures of rapid plasticity in hippocampal CA1 representations during novel experiences. Neuron. 110 (12), 1978-1992 (2022).
  13. Heys, J. G., Rangarajan, K. V., Dombeck, D. A. The functional micro-organization of grid cells revealed by cellular-resolution imaging. Neuron. 84 (5), 1079-1090 (2014).
  14. Harvey, C. D., Collman, F., Dombeck, D. A., Tank, D. W. Intracellular dynamics of hippocampal place cells during virtual navigation. Nature. 461 (7266), 941-946 (2009).
  15. . Harvey Lab Mouse VR Available from: https://github.com/Harvey/Lab/mouseVR (2021)
  16. Pettit, N. L., Yap, E. L., Greenberg, M. E., Harvey, C. D. Fos ensembles encode and shape stable spatial maps in the hippocampus. Nature. 609 (7926), 327-334 (2022).
  17. Turi, G. F., et al. Vasoactive intestinal polypeptide-expressing interneurons in the hippocampus support goal-oriented spatial learning. Neuron. 101 (6), 1150-1165 (2019).
  18. Ulivi, A. F., et al. Longitudinal two-photon imaging of dorsal hippocampal CA1 in live mice. Journal of Visual Experiments. (148), e59598 (2019).
  19. Wang, Y., Zhu, D., Liu, B., Piatkevich, K. D. Craniotomy procedure for visualizing neuronal activities in hippocampus of behaving mice. Journal of Visual Experiments. (173), e62266 (2021).
  20. Tuncdemir, S. N., et al. Parallel processing of sensory cue and spatial information in the dentate gyrus. Cell Reports. 38 (3), 110257 (2022).
  21. Dombeck, D. A., Khabbaz, A. N., Collman, F., Adelman, T. L., Tank, D. W. Imaging large-scale neural activity with cellular resolution in awake, mobile mice. Neuron. 56 (1), 43-57 (2007).
  22. Guo, Z. V., et al. Procedures for behavioral experiments in head-fixed mice. PLoS One. 9 (2), 88678 (2014).
  23. Jordan, J. T., Gonçalves, J. T. Silencing of hippocampal synaptic transmission impairs spatial reward search on a head-fixed tactile treadmill task. bioRxiv. , (2021).
  24. Urai, A. E., et al. Citric acid water as an alternative to water restriction for high-yield mouse behavior. eNeuro. 8 (1), (2021).
  25. Saleem, A. B., Diamanti, E. M., Fournier, J., Harris, K. D., Carandini, M. Coherent encoding of subjective spatial position in visual cortex and hippocampus. Nature. 562 (7725), 124-127 (2018).
  26. Ravassard, P., et al. Multisensory control of hippocampal spatiotemporal selectivity. Science. 340 (6138), 1342-1346 (2013).
  27. Aghajan, Z. M., et al. Impaired spatial selectivity and intact phase precession in two-dimensional virtual reality. Nature Neuroscience. 18 (1), 121-128 (2015).
check_url/pt/64863?article_type=t

Play Video

Citar este artigo
Lacefield, C., Cai, H., Ho, H., Dias, C., Chung, H., Hen, R., Turi, G. F. An Open-Source Virtual Reality System for the Measurement of Spatial Learning in Head-Restrained Mice. J. Vis. Exp. (193), e64863, doi:10.3791/64863 (2023).

View Video