Summary

Et open source virtual reality-system til måling af rumlig læring i hovedfastholdte mus

Published: March 03, 2023
doi:

Summary

Her præsenterer vi en forenklet open source-hardware- og softwareopsætning til undersøgelse af musens rumlige læring ved hjælp af virtual reality (VR). Dette system viser et virtuelt lineært spor til en hovedbehersket mus, der kører på et hjul ved hjælp af et netværk af mikrocontrollere og en enkeltkortcomputer, der kører en brugervenlig Python grafisk softwarepakke.

Abstract

Hovedbeherskede adfærdseksperimenter hos mus giver neuroforskere mulighed for at observere neurale kredsløbsaktivitet med elektrofysiologiske og optiske billeddannelsesværktøjer med høj opløsning, samtidig med at de leverer præcise sensoriske stimuli til et dyr, der opfører sig. For nylig har menneskelige og gnaverundersøgelser ved hjælp af virtual reality (VR) miljøer vist, at VR er et vigtigt redskab til at afdække de neurale mekanismer, der ligger til grund for rumlig læring i hippocampus og cortex på grund af den ekstremt præcise kontrol over parametre som rumlige og kontekstuelle signaler. Opsætning af virtuelle miljøer til gnaverrumlig adfærd kan dog være dyrt og kræve en omfattende baggrund inden for teknik og computerprogrammering. Her præsenterer vi et simpelt, men kraftfuldt system baseret på billig, modulær, open source hardware og software, der gør det muligt for forskere at studere rumlig læring i hovedfastholdte mus ved hjælp af et VR-miljø. Dette system bruger koblede mikrocontrollere til at måle bevægelse og levere adfærdsmæssige stimuli, mens hovedfastholdte mus løber på et hjul sammen med et virtuelt lineært spormiljø gengivet af en grafisk softwarepakke, der kører på en enkeltkortcomputer. Vægten på distribueret behandling gør det muligt for forskere at designe fleksible, modulære systemer til at fremkalde og måle kompleks rumlig adfærd hos mus for at bestemme forbindelsen mellem neurale kredsløbsaktivitet og rumlig læring i pattedyrhjernen.

Introduction

Rumlig navigation er en etologisk vigtig adfærd, hvormed dyr koder funktionerne på nye steder i et kognitivt kort, som bruges til at finde områder med mulig belønning og undgå områder med potentiel fare. Uløseligt forbundet med hukommelse deler de kognitive processer, der ligger til grund for rumlig navigation, et neuralt substrat i hippocampus1 og cortex, hvor neurale kredsløb i disse områder integrerer indgående information og danner kognitive kort over miljøer og begivenheder til senere tilbagekaldelse2. Mens opdagelsen af stedceller i hippocampus3,4 og gitterceller i entorhinal cortex5 har kastet lys over, hvordan det kognitive kort inden for hippocampus dannes, er der stadig mange spørgsmål om, hvordan specifikke neurale undertyper, mikrokredsløb og individuelle underregioner af hippocampus (dentate gyrus og cornu ammonis områder, CA3-1) interagerer og deltager i rumlig hukommelsesdannelse og tilbagekaldelse.

In vivo to-fotonbilleddannelse har været et nyttigt værktøj til at afdække cellulær og populationsdynamik i sensorisk neurofysiologi 6,7; Den typiske nødvendighed af nakkestøtte begrænser imidlertid nytten af denne metode til undersøgelse af pattedyrs rumlige adfærd. Fremkomsten af virtual reality (VR)8 har adresseret denne mangel ved at præsentere fordybende og realistiske visuospatiale miljøer, mens hovedbeherskede mus løber på en bold eller løbebånd for at studere rumlig og kontekstuel kodning i hippocampus 8,9,10 og cortex 11. Desuden har brugen af VR-miljøer med mus, der opfører sig, gjort det muligt for neurovidenskabsforskere at dissekere komponenterne i rumlig adfærd ved præcist at kontrollere elementerne i VR-miljøet12 (f.eks. Visuelt flow, kontekstuel modulation) på måder, der ikke er mulige i virkelige eksperimenter med rumlig læring, såsom Morris-vandlabyrinten, Barnes-labyrinten eller hulbrætopgaver.

Visuelle VR-miljøer gengives typisk på en computers grafiske behandlingsenhed (GPU), som håndterer belastningen ved hurtigt at beregne de tusindvis af polygoner, der er nødvendige for at modellere et bevægeligt 3D-miljø på en skærm i realtid. De store behandlingskrav kræver generelt brug af en separat pc med en GPU, der gengiver det visuelle miljø til en skærm, flere skærme13 eller en projektor14 , da bevægelsen registreres fra et løbebånd, hjul eller skumkugle under dyret. Det resulterende apparat til styring, gengivelse og projicering af VR-miljøet er derfor relativt dyrt, omfangsrigt og besværligt. Desuden er mange sådanne miljøer i litteraturen blevet implementeret ved hjælp af proprietær software, der både er dyr og kun kan køres på en dedikeret pc.

Af disse grunde har vi designet et open source VR-system til at studere rumlig læringsadfærd hos hovedfastholdte mus ved hjælp af en Raspberry Pi single-board computer. Denne Linux-computer er både lille og billig, men indeholder alligevel en GPU-chip til 3D-gengivelse, hvilket muliggør integration af VR-miljøer med skærmen eller adfærdsapparatet i forskellige individuelle opsætninger. Desuden har vi udviklet en grafisk softwarepakke skrevet i Python, “HallPassVR”, som bruger single-board computeren til at gengive et simpelt visuospatialt miljø, et virtuelt lineært spor eller gang, ved at rekombinere brugerdefinerede visuelle funktioner valgt ved hjælp af en grafisk brugergrænseflade (GUI). Dette kombineres med mikrocontroller-undersystemer (f.eks. ESP32 eller Arduino) for at måle bevægelse og koordinere adfærd, såsom ved levering af andre metoder til sensoriske stimuli eller belønninger for at lette forstærkningsindlæring. Dette system giver en billig, fleksibel og brugervenlig alternativ metode til at levere visuospatiale VR-miljøer til hovedfastholdte mus under to-foton-billeddannelse (eller andre teknikker, der kræver hovedfiksering) til at studere de neurale kredsløb, der ligger til grund for rumlig læringsadfærd.

Protocol

Alle procedurer i denne protokol blev godkendt af Institutional Animal Care and Use Committee of the New York State Psychiatric Institute. BEMÆRK: En enkeltkortcomputer bruges til at vise et VR-visuelt miljø, der er koordineret med kørslen af en hovedfastholdt mus på et hjul. Bevægelsesinformation modtages som serielt input fra en ESP32-mikrocontroller, der læser en roterende encoder, der er koblet til hjulakslen. VR-miljøet gengives ved hjælp af OpenGL-hardwareacceleration på Raspber…

Representative Results

Denne open source virtual reality-adfærdsopsætning gjorde det muligt for os at kvantificere slikkeadfærd som en aflæsning af rumlig læring, da hovedbeherskede mus navigerede i et virtuelt lineært spormiljø. Syv C57BL/6-mus af begge køn i alderen 4 måneder blev placeret på en begrænset vandplan og først trænet til at slikke kontinuerligt på lave niveauer, mens de løb på rattet for tilfældige rumlige belønninger (“tilfældig fouragering”) uden VR. Selvom deres ydeevne oprindeligt blev påvirket, da de ble…

Discussion

Dette open source VR-system til mus fungerer kun, hvis de serielle forbindelser er lavet korrekt mellem de roterende og adfærdsmæssige ESP32-mikrocontrollere og enkeltkortcomputeren (trin 2), hvilket kan bekræftes ved hjælp af IDE-serieskærmen (trin 2.4.5). For vellykkede adfærdsmæssige resultater fra denne protokol (trin 4) skal musene være vant til apparatet og være komfortable med at køre på hjulet for flydende belønninger (trin 4.3-4.5). Dette kræver tilstrækkelig (men ikke overdreven) vandbegrænsning,…

Declarações

The authors have nothing to disclose.

Acknowledgements

Vi vil gerne takke Noah Pettit fra Harvey-laboratoriet for diskussionen og forslagene, mens vi udviklede protokollen i dette manuskript. Dette arbejde blev støttet af en BBRF Young Investigator Award og NIMH 1R21MH122965 (G.F.T.) ud over NINDS R56NS128177 (R.H., C.L.) og NIMH R01MH068542 (R.H.).

Materials

1/4 " diam aluminum rod McMaster-Carr 9062K26 3" in length for wheel axle
1/4"-20 cap screws, 3/4" long (x2) Amazon.com B09ZNMR41V for affixing head post holders to optical posts
2"x7" T-slotted aluminum bar (x2) 8020.net 1020 wheel/animal mounting frame
6" diam, 3" wide acrylic cylinder (1/8" thick) Canal Plastics 33210090702 Running wheel (custom width cut at canalplastics.com)
8-32 x 1/2" socket head screws McMaster-Carr 92196A194 fastening head post holder to optical post 
Adjustable arm (14") Amazon.com B087BZGKSL to hold/adjust lick spout
Analysis code (MATLAB) custom written file at github.com/GergelyTuri/HallPassVR/software/Analysis code
Axle mounting flange, 1/4" ID Pololu 1993 for mounting wheel to axle
Ball bearing (5/8" OD, 1/4" ID, x2) McMaster-Carr 57155K324 for mounting wheel axle to frame
Behavior ESP32 code custom written file at github.com/GergelyTuri/HallPassVR/software/Arduino code/Behavior board
Black opaque matte acrylic sheets (1/4" thick) Canal Plastics 32918353422 laser cut file at github.com/GergelyTuri/HallPassVR/hardware/VR screen assembly
Clear acrylic sheet (1/4" thick) Canal Plastics 32920770574 laser cut file at github.com/GergelyTuri/HallPassVR/hardware/VR wheel assembly
ESP32 devKitC v4 (x2) Amazon.com B086YS4Z3F microcontroller for behavior and rotary encoder
ESP32 shield OpenMaze.org OMwSmall description at www.openmaze.org (https://claylacefield.wixsite.com/openmazehome/copy-of-om2shield). ZIP gerber files at: https://github.com/claylacefield/OpenMaze/tree/master/OM_PCBs
Fasteners and brackets  8020.net 4138, 3382,3280 for wheel frame mounts
goniometers Edmund Optics 66-526, 66-527 optional for behavior. Fine tuning head for imaging
HallPassVR python code custom written file at github.com/GergelyTuri/HallPassVR/software/HallPassVR
Head post holder custom design 3D design file at github.com/GergelyTuri/HallPassVR/hardware/VR head mount/Headpost Clamp
LED projector Texas Instruments DLPDLCR230NPEVM or other small LED projector
Lick spout VWR 20068-638 (or ~16 G metal hypodermic tubing)
M 2.5 x 6 set screws McMaster-Carr 92015A097 securing head post 
Matte white diffusion paper Amazon.com screen material
Metal headposts custom design 3D design file at github.com/GergelyTuri/HallPassVR/hardware/VR head mount/head post designs
Miscellenous tubing and tubing adapters (1/16" ID) for constructing the water line
Optical breadboard Thorlabs as per user's requirements
Optical posts, 1/2" diam (2x) Thorlabs TR4 for head fixation setup
Processing code custom written file at github.com/GergelyTuri/HallPassVR/software/Processing code
Raspberry Pi 4B raspberry.com, adafruit.com Single-board computer for rendering of HallPassVR envir.
Right angle clamp Thorlabs RA90 for head fixation setup
Rotary encoder (quadrature, 256 step) DigiKey ENS1J-B28-L00256L to measure wheel rotation
Rotary encoder ESP32 code custom written file at github.com/GergelyTuri/HallPassVR/software/Arduino code/Rotary encoder
SCIGRIP 10315 acrylic cement Amazon.com
Shaft coupler McMaster-Carr 9861T426 to couple rotary encoder shaft with axle
Silver mirror acrylic sheets Canal Plastics 32913817934 laser cut file at github.com/GergelyTuri/HallPassVR/hardware/VR screen assembly
Solenoid valve Parker 003-0137-900 to administer water rewards

Referências

  1. Lisman, J., et al. Viewpoints: How the hippocampus contributes to memory, navigation and cognition. Nature Neuroscience. 20 (11), 1434-1447 (2017).
  2. Buzsaki, G., Moser, E. I. Memory, navigation and theta rhythm in the hippocampal-entorhinal system. Nature Neuroscience. 16 (2), 130-138 (2013).
  3. O’Keefe, J., Dostrovsky, J. The hippocampus as a spatial map. Preliminary evidence from unit activity in the freely-moving rat. Brain Research. 34 (1), 171-175 (1971).
  4. O’Keefe, J. Place units in the hippocampus of the freely moving rat. Experimental Neurology. 51 (1), 78-109 (1976).
  5. Fyhn, M., Molden, S., Witter, M. P., Moser, E. I., Moser, M. B. Spatial representation in the entorhinal cortex. Science. 305 (5688), 1258-1264 (2004).
  6. Letzkus, J. J., et al. A disinhibitory microcircuit for associative fear learning in the auditory cortex. Nature. 480 (7377), 331-335 (2011).
  7. Lacefield, C. O., Pnevmatikakis, E. A., Paninski, L., Bruno, R. M. Reinforcement learning recruits somata and apical dendrites across layers of primary sensory cortex. Cell Reports. 26 (8), 2000-2008 (2019).
  8. Dombeck, D. A., Harvey, C. D., Tian, L., Looger, L. L., Tank, D. W. Functional imaging of hippocampal place cells at cellular resolution during virtual navigation. Nature Neuroscience. 13 (11), 1433-1440 (2010).
  9. Gauthier, J. L., Tank, D. W. A dedicated population for reward coding in the hippocampus. Neuron. 99 (1), 179-193 (2018).
  10. Rickgauer, J. P., Deisseroth, K., Tank, D. W. Simultaneous cellular-resolution optical perturbation and imaging of place cell firing fields. Nature Neuroscience. 17 (12), 1816-1824 (2014).
  11. Yadav, N., et al. Prefrontal feature representations drive memory recall. Nature. 608 (7921), 153-160 (2022).
  12. Priestley, J. B., Bowler, J. C., Rolotti, S. V., Fusi, S., Losonczy, A. Signatures of rapid plasticity in hippocampal CA1 representations during novel experiences. Neuron. 110 (12), 1978-1992 (2022).
  13. Heys, J. G., Rangarajan, K. V., Dombeck, D. A. The functional micro-organization of grid cells revealed by cellular-resolution imaging. Neuron. 84 (5), 1079-1090 (2014).
  14. Harvey, C. D., Collman, F., Dombeck, D. A., Tank, D. W. Intracellular dynamics of hippocampal place cells during virtual navigation. Nature. 461 (7266), 941-946 (2009).
  15. . Harvey Lab Mouse VR Available from: https://github.com/Harvey/Lab/mouseVR (2021)
  16. Pettit, N. L., Yap, E. L., Greenberg, M. E., Harvey, C. D. Fos ensembles encode and shape stable spatial maps in the hippocampus. Nature. 609 (7926), 327-334 (2022).
  17. Turi, G. F., et al. Vasoactive intestinal polypeptide-expressing interneurons in the hippocampus support goal-oriented spatial learning. Neuron. 101 (6), 1150-1165 (2019).
  18. Ulivi, A. F., et al. Longitudinal two-photon imaging of dorsal hippocampal CA1 in live mice. Journal of Visual Experiments. (148), e59598 (2019).
  19. Wang, Y., Zhu, D., Liu, B., Piatkevich, K. D. Craniotomy procedure for visualizing neuronal activities in hippocampus of behaving mice. Journal of Visual Experiments. (173), e62266 (2021).
  20. Tuncdemir, S. N., et al. Parallel processing of sensory cue and spatial information in the dentate gyrus. Cell Reports. 38 (3), 110257 (2022).
  21. Dombeck, D. A., Khabbaz, A. N., Collman, F., Adelman, T. L., Tank, D. W. Imaging large-scale neural activity with cellular resolution in awake, mobile mice. Neuron. 56 (1), 43-57 (2007).
  22. Guo, Z. V., et al. Procedures for behavioral experiments in head-fixed mice. PLoS One. 9 (2), 88678 (2014).
  23. Jordan, J. T., Gonçalves, J. T. Silencing of hippocampal synaptic transmission impairs spatial reward search on a head-fixed tactile treadmill task. bioRxiv. , (2021).
  24. Urai, A. E., et al. Citric acid water as an alternative to water restriction for high-yield mouse behavior. eNeuro. 8 (1), (2021).
  25. Saleem, A. B., Diamanti, E. M., Fournier, J., Harris, K. D., Carandini, M. Coherent encoding of subjective spatial position in visual cortex and hippocampus. Nature. 562 (7725), 124-127 (2018).
  26. Ravassard, P., et al. Multisensory control of hippocampal spatiotemporal selectivity. Science. 340 (6138), 1342-1346 (2013).
  27. Aghajan, Z. M., et al. Impaired spatial selectivity and intact phase precession in two-dimensional virtual reality. Nature Neuroscience. 18 (1), 121-128 (2015).
check_url/pt/64863?article_type=t

Play Video

Citar este artigo
Lacefield, C., Cai, H., Ho, H., Dias, C., Chung, H., Hen, R., Turi, G. F. An Open-Source Virtual Reality System for the Measurement of Spatial Learning in Head-Restrained Mice. J. Vis. Exp. (193), e64863, doi:10.3791/64863 (2023).

View Video