Her præsenterer vi en forenklet open source-hardware- og softwareopsætning til undersøgelse af musens rumlige læring ved hjælp af virtual reality (VR). Dette system viser et virtuelt lineært spor til en hovedbehersket mus, der kører på et hjul ved hjælp af et netværk af mikrocontrollere og en enkeltkortcomputer, der kører en brugervenlig Python grafisk softwarepakke.
Hovedbeherskede adfærdseksperimenter hos mus giver neuroforskere mulighed for at observere neurale kredsløbsaktivitet med elektrofysiologiske og optiske billeddannelsesværktøjer med høj opløsning, samtidig med at de leverer præcise sensoriske stimuli til et dyr, der opfører sig. For nylig har menneskelige og gnaverundersøgelser ved hjælp af virtual reality (VR) miljøer vist, at VR er et vigtigt redskab til at afdække de neurale mekanismer, der ligger til grund for rumlig læring i hippocampus og cortex på grund af den ekstremt præcise kontrol over parametre som rumlige og kontekstuelle signaler. Opsætning af virtuelle miljøer til gnaverrumlig adfærd kan dog være dyrt og kræve en omfattende baggrund inden for teknik og computerprogrammering. Her præsenterer vi et simpelt, men kraftfuldt system baseret på billig, modulær, open source hardware og software, der gør det muligt for forskere at studere rumlig læring i hovedfastholdte mus ved hjælp af et VR-miljø. Dette system bruger koblede mikrocontrollere til at måle bevægelse og levere adfærdsmæssige stimuli, mens hovedfastholdte mus løber på et hjul sammen med et virtuelt lineært spormiljø gengivet af en grafisk softwarepakke, der kører på en enkeltkortcomputer. Vægten på distribueret behandling gør det muligt for forskere at designe fleksible, modulære systemer til at fremkalde og måle kompleks rumlig adfærd hos mus for at bestemme forbindelsen mellem neurale kredsløbsaktivitet og rumlig læring i pattedyrhjernen.
Rumlig navigation er en etologisk vigtig adfærd, hvormed dyr koder funktionerne på nye steder i et kognitivt kort, som bruges til at finde områder med mulig belønning og undgå områder med potentiel fare. Uløseligt forbundet med hukommelse deler de kognitive processer, der ligger til grund for rumlig navigation, et neuralt substrat i hippocampus1 og cortex, hvor neurale kredsløb i disse områder integrerer indgående information og danner kognitive kort over miljøer og begivenheder til senere tilbagekaldelse2. Mens opdagelsen af stedceller i hippocampus3,4 og gitterceller i entorhinal cortex5 har kastet lys over, hvordan det kognitive kort inden for hippocampus dannes, er der stadig mange spørgsmål om, hvordan specifikke neurale undertyper, mikrokredsløb og individuelle underregioner af hippocampus (dentate gyrus og cornu ammonis områder, CA3-1) interagerer og deltager i rumlig hukommelsesdannelse og tilbagekaldelse.
In vivo to-fotonbilleddannelse har været et nyttigt værktøj til at afdække cellulær og populationsdynamik i sensorisk neurofysiologi 6,7; Den typiske nødvendighed af nakkestøtte begrænser imidlertid nytten af denne metode til undersøgelse af pattedyrs rumlige adfærd. Fremkomsten af virtual reality (VR)8 har adresseret denne mangel ved at præsentere fordybende og realistiske visuospatiale miljøer, mens hovedbeherskede mus løber på en bold eller løbebånd for at studere rumlig og kontekstuel kodning i hippocampus 8,9,10 og cortex 11. Desuden har brugen af VR-miljøer med mus, der opfører sig, gjort det muligt for neurovidenskabsforskere at dissekere komponenterne i rumlig adfærd ved præcist at kontrollere elementerne i VR-miljøet12 (f.eks. Visuelt flow, kontekstuel modulation) på måder, der ikke er mulige i virkelige eksperimenter med rumlig læring, såsom Morris-vandlabyrinten, Barnes-labyrinten eller hulbrætopgaver.
Visuelle VR-miljøer gengives typisk på en computers grafiske behandlingsenhed (GPU), som håndterer belastningen ved hurtigt at beregne de tusindvis af polygoner, der er nødvendige for at modellere et bevægeligt 3D-miljø på en skærm i realtid. De store behandlingskrav kræver generelt brug af en separat pc med en GPU, der gengiver det visuelle miljø til en skærm, flere skærme13 eller en projektor14 , da bevægelsen registreres fra et løbebånd, hjul eller skumkugle under dyret. Det resulterende apparat til styring, gengivelse og projicering af VR-miljøet er derfor relativt dyrt, omfangsrigt og besværligt. Desuden er mange sådanne miljøer i litteraturen blevet implementeret ved hjælp af proprietær software, der både er dyr og kun kan køres på en dedikeret pc.
Af disse grunde har vi designet et open source VR-system til at studere rumlig læringsadfærd hos hovedfastholdte mus ved hjælp af en Raspberry Pi single-board computer. Denne Linux-computer er både lille og billig, men indeholder alligevel en GPU-chip til 3D-gengivelse, hvilket muliggør integration af VR-miljøer med skærmen eller adfærdsapparatet i forskellige individuelle opsætninger. Desuden har vi udviklet en grafisk softwarepakke skrevet i Python, “HallPassVR”, som bruger single-board computeren til at gengive et simpelt visuospatialt miljø, et virtuelt lineært spor eller gang, ved at rekombinere brugerdefinerede visuelle funktioner valgt ved hjælp af en grafisk brugergrænseflade (GUI). Dette kombineres med mikrocontroller-undersystemer (f.eks. ESP32 eller Arduino) for at måle bevægelse og koordinere adfærd, såsom ved levering af andre metoder til sensoriske stimuli eller belønninger for at lette forstærkningsindlæring. Dette system giver en billig, fleksibel og brugervenlig alternativ metode til at levere visuospatiale VR-miljøer til hovedfastholdte mus under to-foton-billeddannelse (eller andre teknikker, der kræver hovedfiksering) til at studere de neurale kredsløb, der ligger til grund for rumlig læringsadfærd.
Dette open source VR-system til mus fungerer kun, hvis de serielle forbindelser er lavet korrekt mellem de roterende og adfærdsmæssige ESP32-mikrocontrollere og enkeltkortcomputeren (trin 2), hvilket kan bekræftes ved hjælp af IDE-serieskærmen (trin 2.4.5). For vellykkede adfærdsmæssige resultater fra denne protokol (trin 4) skal musene være vant til apparatet og være komfortable med at køre på hjulet for flydende belønninger (trin 4.3-4.5). Dette kræver tilstrækkelig (men ikke overdreven) vandbegrænsning,…
The authors have nothing to disclose.
Vi vil gerne takke Noah Pettit fra Harvey-laboratoriet for diskussionen og forslagene, mens vi udviklede protokollen i dette manuskript. Dette arbejde blev støttet af en BBRF Young Investigator Award og NIMH 1R21MH122965 (G.F.T.) ud over NINDS R56NS128177 (R.H., C.L.) og NIMH R01MH068542 (R.H.).
1/4 " diam aluminum rod | McMaster-Carr | 9062K26 | 3" in length for wheel axle |
1/4"-20 cap screws, 3/4" long (x2) | Amazon.com | B09ZNMR41V | for affixing head post holders to optical posts |
2"x7" T-slotted aluminum bar (x2) | 8020.net | 1020 | wheel/animal mounting frame |
6" diam, 3" wide acrylic cylinder (1/8" thick) | Canal Plastics | 33210090702 | Running wheel (custom width cut at canalplastics.com) |
8-32 x 1/2" socket head screws | McMaster-Carr | 92196A194 | fastening head post holder to optical post |
Adjustable arm (14") | Amazon.com | B087BZGKSL | to hold/adjust lick spout |
Analysis code (MATLAB) | custom written | file at github.com/GergelyTuri/HallPassVR/software/Analysis code | |
Axle mounting flange, 1/4" ID | Pololu | 1993 | for mounting wheel to axle |
Ball bearing (5/8" OD, 1/4" ID, x2) | McMaster-Carr | 57155K324 | for mounting wheel axle to frame |
Behavior ESP32 code | custom written | file at github.com/GergelyTuri/HallPassVR/software/Arduino code/Behavior board | |
Black opaque matte acrylic sheets (1/4" thick) | Canal Plastics | 32918353422 | laser cut file at github.com/GergelyTuri/HallPassVR/hardware/VR screen assembly |
Clear acrylic sheet (1/4" thick) | Canal Plastics | 32920770574 | laser cut file at github.com/GergelyTuri/HallPassVR/hardware/VR wheel assembly |
ESP32 devKitC v4 (x2) | Amazon.com | B086YS4Z3F | microcontroller for behavior and rotary encoder |
ESP32 shield | OpenMaze.org | OMwSmall | description at www.openmaze.org (https://claylacefield.wixsite.com/openmazehome/copy-of-om2shield). ZIP gerber files at: https://github.com/claylacefield/OpenMaze/tree/master/OM_PCBs |
Fasteners and brackets | 8020.net | 4138, 3382,3280 | for wheel frame mounts |
goniometers | Edmund Optics | 66-526, 66-527 | optional for behavior. Fine tuning head for imaging |
HallPassVR python code | custom written | file at github.com/GergelyTuri/HallPassVR/software/HallPassVR | |
Head post holder | custom design | 3D design file at github.com/GergelyTuri/HallPassVR/hardware/VR head mount/Headpost Clamp | |
LED projector | Texas Instruments | DLPDLCR230NPEVM | or other small LED projector |
Lick spout | VWR | 20068-638 | (or ~16 G metal hypodermic tubing) |
M 2.5 x 6 set screws | McMaster-Carr | 92015A097 | securing head post |
Matte white diffusion paper | Amazon.com | screen material | |
Metal headposts | custom design | 3D design file at github.com/GergelyTuri/HallPassVR/hardware/VR head mount/head post designs | |
Miscellenous tubing and tubing adapters (1/16" ID) | for constructing the water line | ||
Optical breadboard | Thorlabs | as per user's requirements | |
Optical posts, 1/2" diam (2x) | Thorlabs | TR4 | for head fixation setup |
Processing code | custom written | file at github.com/GergelyTuri/HallPassVR/software/Processing code | |
Raspberry Pi 4B | raspberry.com, adafruit.com | Single-board computer for rendering of HallPassVR envir. | |
Right angle clamp | Thorlabs | RA90 | for head fixation setup |
Rotary encoder (quadrature, 256 step) | DigiKey | ENS1J-B28-L00256L | to measure wheel rotation |
Rotary encoder ESP32 code | custom written | file at github.com/GergelyTuri/HallPassVR/software/Arduino code/Rotary encoder | |
SCIGRIP 10315 acrylic cement | Amazon.com | ||
Shaft coupler | McMaster-Carr | 9861T426 | to couple rotary encoder shaft with axle |
Silver mirror acrylic sheets | Canal Plastics | 32913817934 | laser cut file at github.com/GergelyTuri/HallPassVR/hardware/VR screen assembly |
Solenoid valve | Parker | 003-0137-900 | to administer water rewards |