Summary

Ett virtual reality-system med öppen källkod för mätning av rumsligt lärande hos huvudbegränsade möss

Published: March 03, 2023
doi:

Summary

Här presenterar vi en förenklad hårdvaru- och mjukvaruinstallation med öppen källkod för att undersöka musrumslig inlärning med virtuell verklighet (VR). Detta system visar ett virtuellt linjärt spår till en huvudhållen mus som körs på ett hjul genom att använda ett nätverk av mikrokontroller och en enkortsdator som kör ett lättanvänt Python grafiskt mjukvarupaket.

Abstract

Huvudbegränsade beteendeexperiment hos möss gör det möjligt för neuroforskare att observera neural kretsaktivitet med högupplösta elektrofysiologiska och optiska avbildningsverktyg samtidigt som de levererar exakta sensoriska stimuli till ett uppträdande djur. Nyligen har mänskliga och gnagarestudier med hjälp av virtuella verklighetsmiljöer (VR) visat att VR är ett viktigt verktyg för att avslöja de neurala mekanismerna som ligger till grund för rumslig inlärning i hippocampus och cortex, på grund av den extremt exakta kontrollen över parametrar som rumsliga och kontextuella signaler. Att skapa virtuella miljöer för gnagarbeteenden kan dock vara kostsamt och kräva en omfattande bakgrund inom teknik och datorprogrammering. Här presenterar vi ett enkelt men kraftfullt system baserat på billig, modulär hårdvara och mjukvara med öppen källkod som gör det möjligt för forskare att studera rumsligt lärande i huvudbegränsade möss med hjälp av en VR-miljö. Detta system använder kopplade mikrokontroller för att mäta rörelse och leverera beteendestimuli medan huvudhållna möss kör på ett hjul i samförstånd med en virtuell linjär spårmiljö som återges av ett grafiskt mjukvarupaket som körs på en enkortsdator. Betoningen på distribuerad bearbetning gör det möjligt för forskare att utforma flexibla, modulära system för att framkalla och mäta komplexa rumsliga beteenden hos möss för att bestämma sambandet mellan neural kretsaktivitet och rumslig inlärning i däggdjurshjärnan.

Introduction

Rumslig navigering är ett etologiskt viktigt beteende genom vilket djur kodar funktionerna på nya platser till en kognitiv karta, som används för att hitta områden med möjlig belöning och undvika områden med potentiell fara. Oupplösligt kopplade till minnet delar de kognitiva processerna som ligger till grund för rumslig navigering ett neuralt substrat i hippocampus1 och cortex, där neurala kretsar i dessa områden integrerar inkommande information och bildar kognitiva kartor över miljöer och händelser för senare återkallelse2. Medan upptäckten av platsceller i hippocampus3,4 och rutnätceller i entorhinal cortex5 har belyst hur den kognitiva kartan inom hippocampus bildas, kvarstår många frågor om hur specifika neurala subtyper, mikrokretsar och enskilda delregioner i hippocampus (dentate gyrus och cornu ammonis-områdena, CA3-1) interagerar och deltar i rumslig minnesbildning och återkallande.

In vivo tvåfotonavbildning har varit ett användbart verktyg för att avslöja cellulär och populationsdynamik i sensorisk neurofysiologi 6,7; Den typiska nödvändigheten av nackstöd begränsar emellertid användbarheten av denna metod för att undersöka däggdjurs rumsliga beteende. Tillkomsten av virtuell verklighet (VR)8 har åtgärdat denna brist genom att presentera uppslukande och realistiska visuospatiala miljöer medan huvudbegränsade möss springer på en boll eller löpband för att studera rumslig och kontextuell kodning i hippocampus 8,9,10 och cortex 11. Dessutom har användningen av VR-miljöer med betande möss gjort det möjligt för neurovetenskapsforskare att dissekera komponenterna i rumsligt beteende genom att exakt kontrollera elementen i VR-miljön12 (t.ex. visuellt flöde, kontextuell modulering) på sätt som inte är möjliga i verkliga experiment av rumsligt lärande, såsom Morris vattenlabyrint, Barnes labyrint eller hålbräda uppgifter.

Visuella VR-miljöer återges vanligtvis på en dators grafiska bearbetningsenhet (GPU), som hanterar belastningen av att snabbt beräkna de tusentals polygoner som behövs för att modellera en rörlig 3D-miljö på en skärm i realtid. De stora bearbetningskraven kräver i allmänhet användning av en separat dator med en GPU som gör den visuella miljön till en bildskärm, flera skärmar13 eller en projektor14 när rörelsen spelas in från ett löpband, hjul eller skumboll under djuret. Den resulterande apparaten för att styra, rendera och projicera VR-miljön är därför relativt dyr, skrymmande och besvärlig. Dessutom har många sådana miljöer i litteraturen implementerats med proprietär programvara som är både kostsam och endast kan köras på en dedikerad dator.

Av dessa skäl har vi utformat ett VR-system med öppen källkod för att studera rumsliga inlärningsbeteenden hos huvudbegränsade möss med hjälp av en Raspberry Pi-enkortsdator. Denna Linux-dator är både liten och billig men innehåller ändå ett GPU-chip för 3D-rendering, vilket möjliggör integration av VR-miljöer med skärmen eller beteendeapparaten i olika individuella inställningar. Dessutom har vi utvecklat ett grafiskt mjukvarupaket skrivet i Python, “HallPassVR”, som använder enkortsdatorn för att återge en enkel visuospatial miljö, ett virtuellt linjärt spår eller hall, genom att kombinera anpassade visuella funktioner som valts med hjälp av ett grafiskt användargränssnitt (GUI). Detta kombineras med mikrokontroller-delsystem (t.ex. ESP32 eller Arduino) för att mäta rörelse och samordna beteende, till exempel genom leverans av andra modaliteter av sensoriska stimuli eller belöningar för att underlätta förstärkningsinlärning. Detta system ger en billig, flexibel och lättanvänd alternativ metod för att leverera visuospatiala VR-miljöer till huvudbegränsade möss under tvåfotonavbildning (eller andra tekniker som kräver huvudfixering) för att studera de neurala kretsarna som ligger till grund för rumsligt inlärningsbeteende.

Protocol

Alla procedurer i detta protokoll godkändes av Institutional Animal Care and Use Committee vid New York State Psychiatric Institute. OBS: En enkortsdator används för att visa en VR-visuell miljö samordnad med körningen av en huvudhållen mus på ett hjul. Rörelseinformation tas emot som seriell inmatning från en ESP32-mikrokontroller som läser en roterande kodare kopplad till hjulaxeln. VR-miljön återges med OpenGL-hårdvaruacceleration på Raspberry Pi GPU, som använder pi3d Python…

Representative Results

Denna virtuella verklighetsbeteendeinställning med öppen källkod gjorde det möjligt för oss att kvantifiera slickbeteende som en avläsning av rumslig inlärning när huvudbegränsade möss navigerade i en virtuell linjär spårmiljö. Sju C57BL / 6-möss av båda könen vid 4 månaders ålder placerades på ett begränsat vattenschema och tränades först att slicka kontinuerligt på låga nivåer medan de sprang på ratten för slumpmässiga rumsliga belöningar (“slumpmässig födosök”) utan VR. Även om deras p…

Discussion

Detta VR-system med öppen källkod för möss fungerar endast om de seriella anslutningarna görs korrekt mellan rotations- och beteende-ESP32-mikrokontrollerna och enkortsdatorn (steg 2), vilket kan bekräftas med hjälp av IDE-seriemonitorn (steg 2.4.5). För framgångsrika beteenderesultat från detta protokoll (steg 4) måste mössen vara vana vid apparaten och vara bekväma att springa på hjulet för flytande belöningar (steg 4.3-4.5). Detta kräver tillräcklig (men inte överdriven) vattenbegränsning, eftersom…

Disclosures

The authors have nothing to disclose.

Acknowledgements

Vi vill tacka Noah Pettit från Harvey-labbet för diskussionen och förslagen under utvecklingen av protokollet i detta manuskript. Detta arbete stöddes av en BBRF Young Investigator Award och NIMH 1R21MH122965 (G.F.T.), förutom NINDS R56NS128177 (R.H., C.L.) och NIMH R01MH068542 (R.H.).

Materials

1/4 " diam aluminum rod McMaster-Carr 9062K26 3" in length for wheel axle
1/4"-20 cap screws, 3/4" long (x2) Amazon.com B09ZNMR41V for affixing head post holders to optical posts
2"x7" T-slotted aluminum bar (x2) 8020.net 1020 wheel/animal mounting frame
6" diam, 3" wide acrylic cylinder (1/8" thick) Canal Plastics 33210090702 Running wheel (custom width cut at canalplastics.com)
8-32 x 1/2" socket head screws McMaster-Carr 92196A194 fastening head post holder to optical post 
Adjustable arm (14") Amazon.com B087BZGKSL to hold/adjust lick spout
Analysis code (MATLAB) custom written file at github.com/GergelyTuri/HallPassVR/software/Analysis code
Axle mounting flange, 1/4" ID Pololu 1993 for mounting wheel to axle
Ball bearing (5/8" OD, 1/4" ID, x2) McMaster-Carr 57155K324 for mounting wheel axle to frame
Behavior ESP32 code custom written file at github.com/GergelyTuri/HallPassVR/software/Arduino code/Behavior board
Black opaque matte acrylic sheets (1/4" thick) Canal Plastics 32918353422 laser cut file at github.com/GergelyTuri/HallPassVR/hardware/VR screen assembly
Clear acrylic sheet (1/4" thick) Canal Plastics 32920770574 laser cut file at github.com/GergelyTuri/HallPassVR/hardware/VR wheel assembly
ESP32 devKitC v4 (x2) Amazon.com B086YS4Z3F microcontroller for behavior and rotary encoder
ESP32 shield OpenMaze.org OMwSmall description at www.openmaze.org (https://claylacefield.wixsite.com/openmazehome/copy-of-om2shield). ZIP gerber files at: https://github.com/claylacefield/OpenMaze/tree/master/OM_PCBs
Fasteners and brackets  8020.net 4138, 3382,3280 for wheel frame mounts
goniometers Edmund Optics 66-526, 66-527 optional for behavior. Fine tuning head for imaging
HallPassVR python code custom written file at github.com/GergelyTuri/HallPassVR/software/HallPassVR
Head post holder custom design 3D design file at github.com/GergelyTuri/HallPassVR/hardware/VR head mount/Headpost Clamp
LED projector Texas Instruments DLPDLCR230NPEVM or other small LED projector
Lick spout VWR 20068-638 (or ~16 G metal hypodermic tubing)
M 2.5 x 6 set screws McMaster-Carr 92015A097 securing head post 
Matte white diffusion paper Amazon.com screen material
Metal headposts custom design 3D design file at github.com/GergelyTuri/HallPassVR/hardware/VR head mount/head post designs
Miscellenous tubing and tubing adapters (1/16" ID) for constructing the water line
Optical breadboard Thorlabs as per user's requirements
Optical posts, 1/2" diam (2x) Thorlabs TR4 for head fixation setup
Processing code custom written file at github.com/GergelyTuri/HallPassVR/software/Processing code
Raspberry Pi 4B raspberry.com, adafruit.com Single-board computer for rendering of HallPassVR envir.
Right angle clamp Thorlabs RA90 for head fixation setup
Rotary encoder (quadrature, 256 step) DigiKey ENS1J-B28-L00256L to measure wheel rotation
Rotary encoder ESP32 code custom written file at github.com/GergelyTuri/HallPassVR/software/Arduino code/Rotary encoder
SCIGRIP 10315 acrylic cement Amazon.com
Shaft coupler McMaster-Carr 9861T426 to couple rotary encoder shaft with axle
Silver mirror acrylic sheets Canal Plastics 32913817934 laser cut file at github.com/GergelyTuri/HallPassVR/hardware/VR screen assembly
Solenoid valve Parker 003-0137-900 to administer water rewards

References

  1. Lisman, J., et al. Viewpoints: How the hippocampus contributes to memory, navigation and cognition. Nature Neuroscience. 20 (11), 1434-1447 (2017).
  2. Buzsaki, G., Moser, E. I. Memory, navigation and theta rhythm in the hippocampal-entorhinal system. Nature Neuroscience. 16 (2), 130-138 (2013).
  3. O’Keefe, J., Dostrovsky, J. The hippocampus as a spatial map. Preliminary evidence from unit activity in the freely-moving rat. Brain Research. 34 (1), 171-175 (1971).
  4. O’Keefe, J. Place units in the hippocampus of the freely moving rat. Experimental Neurology. 51 (1), 78-109 (1976).
  5. Fyhn, M., Molden, S., Witter, M. P., Moser, E. I., Moser, M. B. Spatial representation in the entorhinal cortex. Science. 305 (5688), 1258-1264 (2004).
  6. Letzkus, J. J., et al. A disinhibitory microcircuit for associative fear learning in the auditory cortex. Nature. 480 (7377), 331-335 (2011).
  7. Lacefield, C. O., Pnevmatikakis, E. A., Paninski, L., Bruno, R. M. Reinforcement learning recruits somata and apical dendrites across layers of primary sensory cortex. Cell Reports. 26 (8), 2000-2008 (2019).
  8. Dombeck, D. A., Harvey, C. D., Tian, L., Looger, L. L., Tank, D. W. Functional imaging of hippocampal place cells at cellular resolution during virtual navigation. Nature Neuroscience. 13 (11), 1433-1440 (2010).
  9. Gauthier, J. L., Tank, D. W. A dedicated population for reward coding in the hippocampus. Neuron. 99 (1), 179-193 (2018).
  10. Rickgauer, J. P., Deisseroth, K., Tank, D. W. Simultaneous cellular-resolution optical perturbation and imaging of place cell firing fields. Nature Neuroscience. 17 (12), 1816-1824 (2014).
  11. Yadav, N., et al. Prefrontal feature representations drive memory recall. Nature. 608 (7921), 153-160 (2022).
  12. Priestley, J. B., Bowler, J. C., Rolotti, S. V., Fusi, S., Losonczy, A. Signatures of rapid plasticity in hippocampal CA1 representations during novel experiences. Neuron. 110 (12), 1978-1992 (2022).
  13. Heys, J. G., Rangarajan, K. V., Dombeck, D. A. The functional micro-organization of grid cells revealed by cellular-resolution imaging. Neuron. 84 (5), 1079-1090 (2014).
  14. Harvey, C. D., Collman, F., Dombeck, D. A., Tank, D. W. Intracellular dynamics of hippocampal place cells during virtual navigation. Nature. 461 (7266), 941-946 (2009).
  15. . Harvey Lab Mouse VR Available from: https://github.com/Harvey/Lab/mouseVR (2021)
  16. Pettit, N. L., Yap, E. L., Greenberg, M. E., Harvey, C. D. Fos ensembles encode and shape stable spatial maps in the hippocampus. Nature. 609 (7926), 327-334 (2022).
  17. Turi, G. F., et al. Vasoactive intestinal polypeptide-expressing interneurons in the hippocampus support goal-oriented spatial learning. Neuron. 101 (6), 1150-1165 (2019).
  18. Ulivi, A. F., et al. Longitudinal two-photon imaging of dorsal hippocampal CA1 in live mice. Journal of Visual Experiments. (148), e59598 (2019).
  19. Wang, Y., Zhu, D., Liu, B., Piatkevich, K. D. Craniotomy procedure for visualizing neuronal activities in hippocampus of behaving mice. Journal of Visual Experiments. (173), e62266 (2021).
  20. Tuncdemir, S. N., et al. Parallel processing of sensory cue and spatial information in the dentate gyrus. Cell Reports. 38 (3), 110257 (2022).
  21. Dombeck, D. A., Khabbaz, A. N., Collman, F., Adelman, T. L., Tank, D. W. Imaging large-scale neural activity with cellular resolution in awake, mobile mice. Neuron. 56 (1), 43-57 (2007).
  22. Guo, Z. V., et al. Procedures for behavioral experiments in head-fixed mice. PLoS One. 9 (2), 88678 (2014).
  23. Jordan, J. T., Gonçalves, J. T. Silencing of hippocampal synaptic transmission impairs spatial reward search on a head-fixed tactile treadmill task. bioRxiv. , (2021).
  24. Urai, A. E., et al. Citric acid water as an alternative to water restriction for high-yield mouse behavior. eNeuro. 8 (1), (2021).
  25. Saleem, A. B., Diamanti, E. M., Fournier, J., Harris, K. D., Carandini, M. Coherent encoding of subjective spatial position in visual cortex and hippocampus. Nature. 562 (7725), 124-127 (2018).
  26. Ravassard, P., et al. Multisensory control of hippocampal spatiotemporal selectivity. Science. 340 (6138), 1342-1346 (2013).
  27. Aghajan, Z. M., et al. Impaired spatial selectivity and intact phase precession in two-dimensional virtual reality. Nature Neuroscience. 18 (1), 121-128 (2015).
check_url/64863?article_type=t

Play Video

Cite This Article
Lacefield, C., Cai, H., Ho, H., Dias, C., Chung, H., Hen, R., Turi, G. F. An Open-Source Virtual Reality System for the Measurement of Spatial Learning in Head-Restrained Mice. J. Vis. Exp. (193), e64863, doi:10.3791/64863 (2023).

View Video