Här presenterar vi en förenklad hårdvaru- och mjukvaruinstallation med öppen källkod för att undersöka musrumslig inlärning med virtuell verklighet (VR). Detta system visar ett virtuellt linjärt spår till en huvudhållen mus som körs på ett hjul genom att använda ett nätverk av mikrokontroller och en enkortsdator som kör ett lättanvänt Python grafiskt mjukvarupaket.
Huvudbegränsade beteendeexperiment hos möss gör det möjligt för neuroforskare att observera neural kretsaktivitet med högupplösta elektrofysiologiska och optiska avbildningsverktyg samtidigt som de levererar exakta sensoriska stimuli till ett uppträdande djur. Nyligen har mänskliga och gnagarestudier med hjälp av virtuella verklighetsmiljöer (VR) visat att VR är ett viktigt verktyg för att avslöja de neurala mekanismerna som ligger till grund för rumslig inlärning i hippocampus och cortex, på grund av den extremt exakta kontrollen över parametrar som rumsliga och kontextuella signaler. Att skapa virtuella miljöer för gnagarbeteenden kan dock vara kostsamt och kräva en omfattande bakgrund inom teknik och datorprogrammering. Här presenterar vi ett enkelt men kraftfullt system baserat på billig, modulär hårdvara och mjukvara med öppen källkod som gör det möjligt för forskare att studera rumsligt lärande i huvudbegränsade möss med hjälp av en VR-miljö. Detta system använder kopplade mikrokontroller för att mäta rörelse och leverera beteendestimuli medan huvudhållna möss kör på ett hjul i samförstånd med en virtuell linjär spårmiljö som återges av ett grafiskt mjukvarupaket som körs på en enkortsdator. Betoningen på distribuerad bearbetning gör det möjligt för forskare att utforma flexibla, modulära system för att framkalla och mäta komplexa rumsliga beteenden hos möss för att bestämma sambandet mellan neural kretsaktivitet och rumslig inlärning i däggdjurshjärnan.
Rumslig navigering är ett etologiskt viktigt beteende genom vilket djur kodar funktionerna på nya platser till en kognitiv karta, som används för att hitta områden med möjlig belöning och undvika områden med potentiell fara. Oupplösligt kopplade till minnet delar de kognitiva processerna som ligger till grund för rumslig navigering ett neuralt substrat i hippocampus1 och cortex, där neurala kretsar i dessa områden integrerar inkommande information och bildar kognitiva kartor över miljöer och händelser för senare återkallelse2. Medan upptäckten av platsceller i hippocampus3,4 och rutnätceller i entorhinal cortex5 har belyst hur den kognitiva kartan inom hippocampus bildas, kvarstår många frågor om hur specifika neurala subtyper, mikrokretsar och enskilda delregioner i hippocampus (dentate gyrus och cornu ammonis-områdena, CA3-1) interagerar och deltar i rumslig minnesbildning och återkallande.
In vivo tvåfotonavbildning har varit ett användbart verktyg för att avslöja cellulär och populationsdynamik i sensorisk neurofysiologi 6,7; Den typiska nödvändigheten av nackstöd begränsar emellertid användbarheten av denna metod för att undersöka däggdjurs rumsliga beteende. Tillkomsten av virtuell verklighet (VR)8 har åtgärdat denna brist genom att presentera uppslukande och realistiska visuospatiala miljöer medan huvudbegränsade möss springer på en boll eller löpband för att studera rumslig och kontextuell kodning i hippocampus 8,9,10 och cortex 11. Dessutom har användningen av VR-miljöer med betande möss gjort det möjligt för neurovetenskapsforskare att dissekera komponenterna i rumsligt beteende genom att exakt kontrollera elementen i VR-miljön12 (t.ex. visuellt flöde, kontextuell modulering) på sätt som inte är möjliga i verkliga experiment av rumsligt lärande, såsom Morris vattenlabyrint, Barnes labyrint eller hålbräda uppgifter.
Visuella VR-miljöer återges vanligtvis på en dators grafiska bearbetningsenhet (GPU), som hanterar belastningen av att snabbt beräkna de tusentals polygoner som behövs för att modellera en rörlig 3D-miljö på en skärm i realtid. De stora bearbetningskraven kräver i allmänhet användning av en separat dator med en GPU som gör den visuella miljön till en bildskärm, flera skärmar13 eller en projektor14 när rörelsen spelas in från ett löpband, hjul eller skumboll under djuret. Den resulterande apparaten för att styra, rendera och projicera VR-miljön är därför relativt dyr, skrymmande och besvärlig. Dessutom har många sådana miljöer i litteraturen implementerats med proprietär programvara som är både kostsam och endast kan köras på en dedikerad dator.
Av dessa skäl har vi utformat ett VR-system med öppen källkod för att studera rumsliga inlärningsbeteenden hos huvudbegränsade möss med hjälp av en Raspberry Pi-enkortsdator. Denna Linux-dator är både liten och billig men innehåller ändå ett GPU-chip för 3D-rendering, vilket möjliggör integration av VR-miljöer med skärmen eller beteendeapparaten i olika individuella inställningar. Dessutom har vi utvecklat ett grafiskt mjukvarupaket skrivet i Python, “HallPassVR”, som använder enkortsdatorn för att återge en enkel visuospatial miljö, ett virtuellt linjärt spår eller hall, genom att kombinera anpassade visuella funktioner som valts med hjälp av ett grafiskt användargränssnitt (GUI). Detta kombineras med mikrokontroller-delsystem (t.ex. ESP32 eller Arduino) för att mäta rörelse och samordna beteende, till exempel genom leverans av andra modaliteter av sensoriska stimuli eller belöningar för att underlätta förstärkningsinlärning. Detta system ger en billig, flexibel och lättanvänd alternativ metod för att leverera visuospatiala VR-miljöer till huvudbegränsade möss under tvåfotonavbildning (eller andra tekniker som kräver huvudfixering) för att studera de neurala kretsarna som ligger till grund för rumsligt inlärningsbeteende.
Detta VR-system med öppen källkod för möss fungerar endast om de seriella anslutningarna görs korrekt mellan rotations- och beteende-ESP32-mikrokontrollerna och enkortsdatorn (steg 2), vilket kan bekräftas med hjälp av IDE-seriemonitorn (steg 2.4.5). För framgångsrika beteenderesultat från detta protokoll (steg 4) måste mössen vara vana vid apparaten och vara bekväma att springa på hjulet för flytande belöningar (steg 4.3-4.5). Detta kräver tillräcklig (men inte överdriven) vattenbegränsning, eftersom…
The authors have nothing to disclose.
Vi vill tacka Noah Pettit från Harvey-labbet för diskussionen och förslagen under utvecklingen av protokollet i detta manuskript. Detta arbete stöddes av en BBRF Young Investigator Award och NIMH 1R21MH122965 (G.F.T.), förutom NINDS R56NS128177 (R.H., C.L.) och NIMH R01MH068542 (R.H.).
1/4 " diam aluminum rod | McMaster-Carr | 9062K26 | 3" in length for wheel axle |
1/4"-20 cap screws, 3/4" long (x2) | Amazon.com | B09ZNMR41V | for affixing head post holders to optical posts |
2"x7" T-slotted aluminum bar (x2) | 8020.net | 1020 | wheel/animal mounting frame |
6" diam, 3" wide acrylic cylinder (1/8" thick) | Canal Plastics | 33210090702 | Running wheel (custom width cut at canalplastics.com) |
8-32 x 1/2" socket head screws | McMaster-Carr | 92196A194 | fastening head post holder to optical post |
Adjustable arm (14") | Amazon.com | B087BZGKSL | to hold/adjust lick spout |
Analysis code (MATLAB) | custom written | file at github.com/GergelyTuri/HallPassVR/software/Analysis code | |
Axle mounting flange, 1/4" ID | Pololu | 1993 | for mounting wheel to axle |
Ball bearing (5/8" OD, 1/4" ID, x2) | McMaster-Carr | 57155K324 | for mounting wheel axle to frame |
Behavior ESP32 code | custom written | file at github.com/GergelyTuri/HallPassVR/software/Arduino code/Behavior board | |
Black opaque matte acrylic sheets (1/4" thick) | Canal Plastics | 32918353422 | laser cut file at github.com/GergelyTuri/HallPassVR/hardware/VR screen assembly |
Clear acrylic sheet (1/4" thick) | Canal Plastics | 32920770574 | laser cut file at github.com/GergelyTuri/HallPassVR/hardware/VR wheel assembly |
ESP32 devKitC v4 (x2) | Amazon.com | B086YS4Z3F | microcontroller for behavior and rotary encoder |
ESP32 shield | OpenMaze.org | OMwSmall | description at www.openmaze.org (https://claylacefield.wixsite.com/openmazehome/copy-of-om2shield). ZIP gerber files at: https://github.com/claylacefield/OpenMaze/tree/master/OM_PCBs |
Fasteners and brackets | 8020.net | 4138, 3382,3280 | for wheel frame mounts |
goniometers | Edmund Optics | 66-526, 66-527 | optional for behavior. Fine tuning head for imaging |
HallPassVR python code | custom written | file at github.com/GergelyTuri/HallPassVR/software/HallPassVR | |
Head post holder | custom design | 3D design file at github.com/GergelyTuri/HallPassVR/hardware/VR head mount/Headpost Clamp | |
LED projector | Texas Instruments | DLPDLCR230NPEVM | or other small LED projector |
Lick spout | VWR | 20068-638 | (or ~16 G metal hypodermic tubing) |
M 2.5 x 6 set screws | McMaster-Carr | 92015A097 | securing head post |
Matte white diffusion paper | Amazon.com | screen material | |
Metal headposts | custom design | 3D design file at github.com/GergelyTuri/HallPassVR/hardware/VR head mount/head post designs | |
Miscellenous tubing and tubing adapters (1/16" ID) | for constructing the water line | ||
Optical breadboard | Thorlabs | as per user's requirements | |
Optical posts, 1/2" diam (2x) | Thorlabs | TR4 | for head fixation setup |
Processing code | custom written | file at github.com/GergelyTuri/HallPassVR/software/Processing code | |
Raspberry Pi 4B | raspberry.com, adafruit.com | Single-board computer for rendering of HallPassVR envir. | |
Right angle clamp | Thorlabs | RA90 | for head fixation setup |
Rotary encoder (quadrature, 256 step) | DigiKey | ENS1J-B28-L00256L | to measure wheel rotation |
Rotary encoder ESP32 code | custom written | file at github.com/GergelyTuri/HallPassVR/software/Arduino code/Rotary encoder | |
SCIGRIP 10315 acrylic cement | Amazon.com | ||
Shaft coupler | McMaster-Carr | 9861T426 | to couple rotary encoder shaft with axle |
Silver mirror acrylic sheets | Canal Plastics | 32913817934 | laser cut file at github.com/GergelyTuri/HallPassVR/hardware/VR screen assembly |
Solenoid valve | Parker | 003-0137-900 | to administer water rewards |