Summary

Ein Open-Source-Virtual-Reality-System zur Messung des räumlichen Lernens bei kopfgebundenen Mäusen

Published: March 03, 2023
doi:

Summary

Hier stellen wir ein vereinfachtes Open-Source-Hardware- und Software-Setup zur Untersuchung des räumlichen Lernens von Mäusen mit Hilfe von Virtual Reality (VR) vor. Dieses System zeigt einer kopfgebundenen Maus, die auf einem Rad läuft, eine virtuelle lineare Spur an, indem es ein Netzwerk von Mikrocontrollern und einen Einplatinencomputer verwendet, auf dem ein einfach zu bedienendes grafisches Python-Softwarepaket ausgeführt wird.

Abstract

Kopfgebundene Verhaltensexperimente an Mäusen ermöglichen es Neurowissenschaftlern, die Aktivität neuronaler Schaltkreise mit hochauflösenden elektrophysiologischen und optischen Bildgebungswerkzeugen zu beobachten und gleichzeitig einem sich verhaltenden Tier präzise sensorische Reize zu geben. In jüngster Zeit haben Studien an Menschen und Nagetieren mit Virtual-Reality-Umgebungen (VR) gezeigt, dass VR aufgrund der äußerst präzisen Kontrolle von Parametern wie räumlichen und kontextuellen Hinweisen ein wichtiges Werkzeug ist, um die neuronalen Mechanismen aufzudecken, die dem räumlichen Lernen im Hippocampus und im Kortex zugrunde liegen. Das Einrichten virtueller Umgebungen für das räumliche Verhalten von Nagetieren kann jedoch kostspielig sein und erfordert einen umfangreichen Hintergrund in Ingenieurwesen und Computerprogrammierung. Hier stellen wir ein einfaches, aber leistungsfähiges System vor, das auf kostengünstiger, modularer Open-Source-Hard- und Software basiert und es Forschern ermöglicht, räumliches Lernen in kopfgebundenen Mäusen mithilfe einer VR-Umgebung zu untersuchen. Dieses System verwendet gekoppelte Mikrocontroller, um die Fortbewegung zu messen und Verhaltensreize zu liefern, während kopfgebundene Mäuse auf einem Rad in Verbindung mit einer virtuellen linearen Spurumgebung laufen, die von einem grafischen Softwarepaket gerendert wird, das auf einem Einplatinencomputer läuft. Der Schwerpunkt auf verteilter Verarbeitung ermöglicht es den Forschern, flexible, modulare Systeme zu entwickeln, um komplexe räumliche Verhaltensweisen bei Mäusen zu ermitteln und zu messen, um den Zusammenhang zwischen der Aktivität neuronaler Schaltkreise und dem räumlichen Lernen im Gehirn von Säugetieren zu bestimmen.

Introduction

Räumliche Navigation ist ein ethologisch wichtiges Verhalten, bei dem Tiere die Merkmale neuer Orte in einer kognitiven Karte kodieren, die verwendet wird, um Bereiche möglicher Belohnungen zu finden und potenzielle Gefahrenbereiche zu vermeiden. Die kognitiven Prozesse, die der räumlichen Navigation zugrunde liegen, sind untrennbar mit dem Gedächtnis verbunden und teilen sich ein neuronales Substrat im Hippocampus1 und im Kortex, wo neuronale Schaltkreise in diesen Bereichen eingehende Informationen integrieren und kognitive Karten von Umgebungen und Ereignissen für den späteren Abrufbilden 2. Während die Entdeckung von Ortszellen im Hippocampus3,4 und von Gitterzellen im entorhinalen Kortex5 Aufschluss darüber gegeben hat, wie die kognitive Karte innerhalb des Hippocampus gebildet wird, bleiben viele Fragen darüber offen, wie bestimmte neuronale Subtypen, Mikroschaltkreise und einzelne Subregionen des Hippocampus (Gyrus dentatus und Cornu ammonis Areale, CA3-1) interagieren und an der Bildung und dem Abruf des räumlichen Gedächtnisses beteiligt sind.

Die In-vivo-Zwei-Photonen-Bildgebung ist ein nützliches Werkzeug zur Aufdeckung der Zell- und Populationsdynamik in der sensorischen Neurophysiologie 6,7; Die typische Notwendigkeit einer Kopfstütze schränkt jedoch den Nutzen dieser Methode zur Untersuchung des räumlichen Verhaltens von Säugetieren ein. Das Aufkommen der virtuellen Realität (VR)8 hat dieses Manko behoben, indem immersive und realistische visuell-räumliche Umgebungen präsentiert wurden, während kopfgebundene Mäuse auf einem Ball oder Laufband liefen, um die räumliche und kontextuelle Kodierung im Hippocampus 8,9,10 und im Kortex 11 zu untersuchen. Darüber hinaus hat die Verwendung von VR-Umgebungen mit sich verhaltenden Mäusen es neurowissenschaftlichen Forschern ermöglicht, die Komponenten des räumlichen Verhaltens zu analysieren, indem sie die Elemente der VR-Umgebung12 (z. B. visueller Fluss, kontextuelle Modulation) auf eine Weise präzise steuern, die in realen Experimenten des räumlichen Lernens, wie z. B. dem Morris-Wasserlabyrinth, dem Barnes-Labyrinth oder Lochbrettaufgaben, nicht möglich ist.

Visuelle VR-Umgebungen werden in der Regel auf der Graphical Processing Unit (GPU) eines Computers gerendert, die die Last der schnellen Berechnung der Tausenden von Polygonen bewältigt, die erforderlich sind, um eine sich bewegende 3D-Umgebung in Echtzeit auf einem Bildschirm zu modellieren. Die großen Verarbeitungsanforderungen erfordern im Allgemeinen die Verwendung eines separaten PCs mit einer GPU, die die visuelle Umgebung auf einem Monitor, mehreren Bildschirmen13 oder einem Projektor14 wiedergibt, während die Bewegung von einem Laufband, einem Rad oder einem Schaumstoffball unter dem Tier aufgezeichnet wird. Die daraus resultierende Vorrichtung zur Steuerung, zum Rendern und zur Projektion der VR-Umgebung ist daher relativ teuer, sperrig und umständlich. Darüber hinaus wurden viele solcher Umgebungen in der Literatur mit proprietärer Software implementiert, die sowohl kostspielig ist als auch nur auf einem dedizierten PC ausgeführt werden kann.

Aus diesen Gründen haben wir ein Open-Source-VR-System entwickelt, um das räumliche Lernverhalten von kopfgebundenen Mäusen mit einem Raspberry Pi-Einplatinencomputer zu untersuchen. Dieser Linux-Computer ist sowohl klein als auch kostengünstig und enthält dennoch einen GPU-Chip für 3D-Rendering, der die Integration von VR-Umgebungen mit dem Display oder dem Verhaltensapparat in verschiedenen individuellen Setups ermöglicht. Darüber hinaus haben wir ein in Python geschriebenes grafisches Softwarepaket, “HallPassVR”, entwickelt, das den Einplatinencomputer nutzt, um eine einfache visuell-räumliche Umgebung, eine virtuelle lineare Strecke oder einen Flur, zu rendern, indem benutzerdefinierte visuelle Merkmale, die über eine grafische Benutzeroberfläche (GUI) ausgewählt wurden, neu kombiniert werden. Dies wird mit Mikrocontroller-Subsystemen (z. B. ESP32 oder Arduino) kombiniert, um die Fortbewegung zu messen und das Verhalten zu koordinieren, z. B. durch die Abgabe anderer Modalitäten von Sinnesreizen oder Belohnungen, um das Reinforcement Learning zu erleichtern. Dieses System bietet eine kostengünstige, flexible und einfach zu bedienende alternative Methode zur Bereitstellung visuell-räumlicher VR-Umgebungen für kopfgebundene Mäuse während der Zwei-Photonen-Bildgebung (oder anderer Techniken, die eine Kopffixierung erfordern), um die neuronalen Schaltkreise zu untersuchen, die dem räumlichen Lernverhalten zugrunde liegen.

Protocol

Alle Verfahren in diesem Protokoll wurden vom Institutional Animal Care and Use Committee des New York State Psychiatric Institute genehmigt. HINWEIS: Ein Einplatinencomputer wird verwendet, um eine visuelle VR-Umgebung anzuzeigen, die mit dem Ausführen einer kopfgebundenen Maus auf einem Rad koordiniert ist. Bewegungsinformationen werden als serieller Eingang von einem ESP32-Mikrocontroller empfangen, der einen mit der Radachse gekoppelten Drehgeber liest. Die VR-Umgebung wird mit OpenGL-Har…

Representative Results

Dieses Open-Source-Virtual-Reality-Verhaltens-Setup ermöglichte es uns, das Leckverhalten als Auslesen des räumlichen Lernens zu quantifizieren, während kopfgebundene Mäuse durch eine virtuelle lineare Spurumgebung navigierten. Sieben C57BL/6-Mäuse beiderlei Geschlechts im Alter von 4 Monaten wurden auf einen eingeschränkten Wasserplan gesetzt und zunächst darauf trainiert, kontinuierlich auf niedrigem Niveau zu lecken, während sie auf dem Rad liefen, um zufällige räumliche Belohnungen zu erhalten (“zufällige …

Discussion

Dieses Open-Source-VR-System für Mäuse funktioniert nur, wenn die seriellen Verbindungen zwischen den rotierenden und verhaltensfähigen ESP32-Mikrocontrollern und dem Einplatinencomputer korrekt hergestellt sind (Schritt 2), was mit dem seriellen IDE-Monitor bestätigt werden kann (Schritt 2.4.5). Für erfolgreiche Verhaltensergebnisse aus diesem Protokoll (Schritt 4) müssen die Mäuse an den Apparat gewöhnt sein und sich wohl fühlen, auf dem Rad zu laufen, um flüssige Belohnungen zu erhalten (Schritte 4.3-4.5). D…

Disclosures

The authors have nothing to disclose.

Acknowledgements

Wir bedanken uns bei Noah Pettit vom Harvey-Labor für die Diskussion und die Anregungen bei der Entwicklung des Protokolls in diesem Manuskript. Diese Arbeit wurde durch einen BBRF Young Investigator Award und NIMH 1R21MH122965 (G.F.T.) unterstützt, zusätzlich zu NINDS R56NS128177 (R.H., C.L.) und NIMH R01MH068542 (R.H.).

Materials

1/4 " diam aluminum rod McMaster-Carr 9062K26 3" in length for wheel axle
1/4"-20 cap screws, 3/4" long (x2) Amazon.com B09ZNMR41V for affixing head post holders to optical posts
2"x7" T-slotted aluminum bar (x2) 8020.net 1020 wheel/animal mounting frame
6" diam, 3" wide acrylic cylinder (1/8" thick) Canal Plastics 33210090702 Running wheel (custom width cut at canalplastics.com)
8-32 x 1/2" socket head screws McMaster-Carr 92196A194 fastening head post holder to optical post 
Adjustable arm (14") Amazon.com B087BZGKSL to hold/adjust lick spout
Analysis code (MATLAB) custom written file at github.com/GergelyTuri/HallPassVR/software/Analysis code
Axle mounting flange, 1/4" ID Pololu 1993 for mounting wheel to axle
Ball bearing (5/8" OD, 1/4" ID, x2) McMaster-Carr 57155K324 for mounting wheel axle to frame
Behavior ESP32 code custom written file at github.com/GergelyTuri/HallPassVR/software/Arduino code/Behavior board
Black opaque matte acrylic sheets (1/4" thick) Canal Plastics 32918353422 laser cut file at github.com/GergelyTuri/HallPassVR/hardware/VR screen assembly
Clear acrylic sheet (1/4" thick) Canal Plastics 32920770574 laser cut file at github.com/GergelyTuri/HallPassVR/hardware/VR wheel assembly
ESP32 devKitC v4 (x2) Amazon.com B086YS4Z3F microcontroller for behavior and rotary encoder
ESP32 shield OpenMaze.org OMwSmall description at www.openmaze.org (https://claylacefield.wixsite.com/openmazehome/copy-of-om2shield). ZIP gerber files at: https://github.com/claylacefield/OpenMaze/tree/master/OM_PCBs
Fasteners and brackets  8020.net 4138, 3382,3280 for wheel frame mounts
goniometers Edmund Optics 66-526, 66-527 optional for behavior. Fine tuning head for imaging
HallPassVR python code custom written file at github.com/GergelyTuri/HallPassVR/software/HallPassVR
Head post holder custom design 3D design file at github.com/GergelyTuri/HallPassVR/hardware/VR head mount/Headpost Clamp
LED projector Texas Instruments DLPDLCR230NPEVM or other small LED projector
Lick spout VWR 20068-638 (or ~16 G metal hypodermic tubing)
M 2.5 x 6 set screws McMaster-Carr 92015A097 securing head post 
Matte white diffusion paper Amazon.com screen material
Metal headposts custom design 3D design file at github.com/GergelyTuri/HallPassVR/hardware/VR head mount/head post designs
Miscellenous tubing and tubing adapters (1/16" ID) for constructing the water line
Optical breadboard Thorlabs as per user's requirements
Optical posts, 1/2" diam (2x) Thorlabs TR4 for head fixation setup
Processing code custom written file at github.com/GergelyTuri/HallPassVR/software/Processing code
Raspberry Pi 4B raspberry.com, adafruit.com Single-board computer for rendering of HallPassVR envir.
Right angle clamp Thorlabs RA90 for head fixation setup
Rotary encoder (quadrature, 256 step) DigiKey ENS1J-B28-L00256L to measure wheel rotation
Rotary encoder ESP32 code custom written file at github.com/GergelyTuri/HallPassVR/software/Arduino code/Rotary encoder
SCIGRIP 10315 acrylic cement Amazon.com
Shaft coupler McMaster-Carr 9861T426 to couple rotary encoder shaft with axle
Silver mirror acrylic sheets Canal Plastics 32913817934 laser cut file at github.com/GergelyTuri/HallPassVR/hardware/VR screen assembly
Solenoid valve Parker 003-0137-900 to administer water rewards

References

  1. Lisman, J., et al. Viewpoints: How the hippocampus contributes to memory, navigation and cognition. Nature Neuroscience. 20 (11), 1434-1447 (2017).
  2. Buzsaki, G., Moser, E. I. Memory, navigation and theta rhythm in the hippocampal-entorhinal system. Nature Neuroscience. 16 (2), 130-138 (2013).
  3. O’Keefe, J., Dostrovsky, J. The hippocampus as a spatial map. Preliminary evidence from unit activity in the freely-moving rat. Brain Research. 34 (1), 171-175 (1971).
  4. O’Keefe, J. Place units in the hippocampus of the freely moving rat. Experimental Neurology. 51 (1), 78-109 (1976).
  5. Fyhn, M., Molden, S., Witter, M. P., Moser, E. I., Moser, M. B. Spatial representation in the entorhinal cortex. Science. 305 (5688), 1258-1264 (2004).
  6. Letzkus, J. J., et al. A disinhibitory microcircuit for associative fear learning in the auditory cortex. Nature. 480 (7377), 331-335 (2011).
  7. Lacefield, C. O., Pnevmatikakis, E. A., Paninski, L., Bruno, R. M. Reinforcement learning recruits somata and apical dendrites across layers of primary sensory cortex. Cell Reports. 26 (8), 2000-2008 (2019).
  8. Dombeck, D. A., Harvey, C. D., Tian, L., Looger, L. L., Tank, D. W. Functional imaging of hippocampal place cells at cellular resolution during virtual navigation. Nature Neuroscience. 13 (11), 1433-1440 (2010).
  9. Gauthier, J. L., Tank, D. W. A dedicated population for reward coding in the hippocampus. Neuron. 99 (1), 179-193 (2018).
  10. Rickgauer, J. P., Deisseroth, K., Tank, D. W. Simultaneous cellular-resolution optical perturbation and imaging of place cell firing fields. Nature Neuroscience. 17 (12), 1816-1824 (2014).
  11. Yadav, N., et al. Prefrontal feature representations drive memory recall. Nature. 608 (7921), 153-160 (2022).
  12. Priestley, J. B., Bowler, J. C., Rolotti, S. V., Fusi, S., Losonczy, A. Signatures of rapid plasticity in hippocampal CA1 representations during novel experiences. Neuron. 110 (12), 1978-1992 (2022).
  13. Heys, J. G., Rangarajan, K. V., Dombeck, D. A. The functional micro-organization of grid cells revealed by cellular-resolution imaging. Neuron. 84 (5), 1079-1090 (2014).
  14. Harvey, C. D., Collman, F., Dombeck, D. A., Tank, D. W. Intracellular dynamics of hippocampal place cells during virtual navigation. Nature. 461 (7266), 941-946 (2009).
  15. . Harvey Lab Mouse VR Available from: https://github.com/Harvey/Lab/mouseVR (2021)
  16. Pettit, N. L., Yap, E. L., Greenberg, M. E., Harvey, C. D. Fos ensembles encode and shape stable spatial maps in the hippocampus. Nature. 609 (7926), 327-334 (2022).
  17. Turi, G. F., et al. Vasoactive intestinal polypeptide-expressing interneurons in the hippocampus support goal-oriented spatial learning. Neuron. 101 (6), 1150-1165 (2019).
  18. Ulivi, A. F., et al. Longitudinal two-photon imaging of dorsal hippocampal CA1 in live mice. Journal of Visual Experiments. (148), e59598 (2019).
  19. Wang, Y., Zhu, D., Liu, B., Piatkevich, K. D. Craniotomy procedure for visualizing neuronal activities in hippocampus of behaving mice. Journal of Visual Experiments. (173), e62266 (2021).
  20. Tuncdemir, S. N., et al. Parallel processing of sensory cue and spatial information in the dentate gyrus. Cell Reports. 38 (3), 110257 (2022).
  21. Dombeck, D. A., Khabbaz, A. N., Collman, F., Adelman, T. L., Tank, D. W. Imaging large-scale neural activity with cellular resolution in awake, mobile mice. Neuron. 56 (1), 43-57 (2007).
  22. Guo, Z. V., et al. Procedures for behavioral experiments in head-fixed mice. PLoS One. 9 (2), 88678 (2014).
  23. Jordan, J. T., Gonçalves, J. T. Silencing of hippocampal synaptic transmission impairs spatial reward search on a head-fixed tactile treadmill task. bioRxiv. , (2021).
  24. Urai, A. E., et al. Citric acid water as an alternative to water restriction for high-yield mouse behavior. eNeuro. 8 (1), (2021).
  25. Saleem, A. B., Diamanti, E. M., Fournier, J., Harris, K. D., Carandini, M. Coherent encoding of subjective spatial position in visual cortex and hippocampus. Nature. 562 (7725), 124-127 (2018).
  26. Ravassard, P., et al. Multisensory control of hippocampal spatiotemporal selectivity. Science. 340 (6138), 1342-1346 (2013).
  27. Aghajan, Z. M., et al. Impaired spatial selectivity and intact phase precession in two-dimensional virtual reality. Nature Neuroscience. 18 (1), 121-128 (2015).

Play Video

Cite This Article
Lacefield, C., Cai, H., Ho, H., Dias, C., Chung, H., Hen, R., Turi, G. F. An Open-Source Virtual Reality System for the Measurement of Spatial Learning in Head-Restrained Mice. J. Vis. Exp. (193), e64863, doi:10.3791/64863 (2023).

View Video