Summary

Het bijhouden van ratten in Operant Conditioning Kamers met behulp van een veelzijdige zelfgemaakte videocamera en DeepLabCut

Published: June 15, 2020
doi:

Summary

Dit protocol beschrijft hoe je een kleine en veelzijdige videocamera bouwen en hoe je video’s gebruiken die daaruit zijn verkregen om een neuraal netwerk te trainen om de positie van een dier in operant-conditioneringskamers te volgen. Dit is een waardevolle aanvulling op standaard analyses van datalogs verkregen uit operne-conditioneringen.

Abstract

Operant conditionering kamers worden gebruikt om een breed scala van gedragstests uit te voeren op het gebied van neurowetenschappen. De opgenomen gegevens zijn meestal gebaseerd op het activeren van hendel- en neus-porne sensoren die aanwezig zijn in de kamers. Hoewel dit een gedetailleerd beeld geeft van wanneer en hoe dieren bepaalde reacties uitvoeren, kan het niet worden gebruikt om gedragingen te evalueren die geen sensoren activeren. Als zodanig is het zelden mogelijk om te beoordelen hoe dieren zich positioneren en zich in de kamer bewegen. Om deze informatie te verkrijgen, moeten onderzoekers over het algemeen video’s opnemen en analyseren. Fabrikanten van operant conditioneringkamers kunnen hun klanten doorgaans voorzien van hoogwaardige camera-opstellingen. Echter, deze kunnen zeer kostbaar zijn en niet noodzakelijkerwijs kamers van andere fabrikanten of andere gedragstest setups passen. Het huidige protocol beschrijft hoe je een goedkope en veelzijdige videocamera bouwen met hobby-elektronicacomponenten. Het beschrijft verder hoe het beeldanalyse softwarepakket DeepLabCut te gebruiken om de status van een sterk lichtsignaal, evenals de positie van een rat, in video’s verzameld vanuit een operant conditionering kamer te volgen. De eerste is een groot hulpmiddel bij het selecteren van korte segmenten van belang in video’s die hele testsessies bestrijken, en de laatste maakt analyse van parameters die niet kunnen worden verkregen uit de data logs geproduceerd door de operant kamers.

Introduction

Op het gebied van gedragsneurowetenschappen, onderzoekers vaak gebruik operant conditionering kamers om een breed scala van verschillende cognitieve en psychiatrische kenmerken bij knaagdieren te beoordelen. Hoewel er verschillende fabrikanten van dergelijke systemen zijn, delen ze doorgaans bepaalde kenmerken en hebben ze een bijna gestandaardiseerd ontwerp1,2,3. De kamers zijn over het algemeen vierkant- of rechthoekvormig, met een muur die kan worden geopend voor het plaatsen van dieren binnen, en een of twee van de resterende muren met componenten zoals hendels, neus-poke openingen, beloning trays, respons wielen en lichten van verschillende soorten1,,2,3. De lichten en sensoren in de kamers worden gebruikt om zowel het testprotocol te controleren als het gedrag van de dieren te volgen1,2,,3,4,5. De typische operant conditioneringssystemen zorgen voor een zeer gedetailleerde analyse van hoe de dieren omgaan met de verschillende operanda en openingen in de kamers. In het algemeen kunnen alle gelegenheden waarbij sensoren worden geactiveerd door het systeem worden geregistreerd, en uit deze gegevens kunnen gebruikers gedetailleerde logbestanden verkrijgen waarin wordt beschreven wat het dier deed tijdens specifieke stappen van de test4,5. Hoewel dit een uitgebreide weergave van de prestaties van een dier biedt, kan het alleen worden gebruikt om gedrag te beschrijven dat direct een of meer sensoren4,5activeert . Als zodanig worden aspecten die verband houden met de manier waarop het dier zich positioneert en zich tijdens verschillende fasen van de test in de kamer beweegt , niet goed beschreven6,7,8,9,10. Dit is jammer, omdat dergelijke informatie waardevol kan zijn voor het volledig begrijpen van het gedrag van het dier. Het kan bijvoorbeeld worden gebruikt om te verduidelijken waarom bepaalde dieren slecht presteren op een bepaalde test6, om de strategieën te beschrijven die dieren zouden kunnen ontwikkelen om moeilijke taken6,7,8, 98,,10te behandelen , of om de ware complexiteit van zogenaamd eenvoudig gedrag11,12te waarderen .9 Om dergelijke welbespraakte informatie te verkrijgen, onderzoekers vaak wenden tot handmatige analyse van video’s6,7,8,9,10,11.

Bij het opnemen van video’s van operant conditioneringkamers, is de keuze van de camera van cruciaal belang. De kamers bevinden zich gewoonlijk in isolatiehokjes, waarbij protocollen vaak gebruik maken van trappen waar geen zichtbaar licht schijnt3,6,7,8,9. Daarom is het gebruik van infrarood (IR) verlichting in combinatie met een IR-gevoelige camera noodzakelijk, omdat het zicht mogelijk maakt, zelfs in volledige duisternis. Verder is de beschikbare ruimte voor het plaatsen van een camera in de isolatiecabine vaak zeer beperkt, wat betekent dat men sterk profiteert van het hebben van kleine camera’s die lenzen gebruiken met een breed gezichtsveld (bijvoorbeeld visooglenzen)9. Terwijl fabrikanten van opernige conditioneringssystemen vaak hoogwaardige camera-opstellingen aan hun klanten kunnen leveren, kunnen deze systemen duur zijn en niet noodzakelijkerwijs kamers van andere fabrikanten of opstellingen voor andere gedragstests passen. Echter, een opmerkelijk voordeel ten opzichte van het gebruik van stand-alone videocamera’s is dat deze opstellingen vaak rechtstreeks kunnen interface met de operant conditionering systemen13,14. Hierdoor kunnen ze worden opgezet om alleen specifieke gebeurtenissen op te nemen in plaats van volledige testsessies, wat enorm kan helpen bij de analyse die volgt.

Het huidige protocol beschrijft hoe je een goedkope en veelzijdige videocamera bouwen met hobby-elektronicacomponenten. De camera maakt gebruik van een fisheye lens, is gevoelig voor IR-verlichting en heeft een set van IR-lichtgevende diodes (IR LED’s) aan verbonden. Bovendien is het gebouwd om een plat en slank profiel te hebben. Samen maken deze aspecten het ideaal voor het opnemen van video’s van de meeste commercieel beschikbare operant conditioneringkamers en andere gedragstestopstellingen. Het protocol beschrijft verder hoe video’s verkregen met de camera te verwerken en hoe het softwarepakket DeepLabCut15,16 te gebruiken om te helpen bij het extraheren van video sequenties van belang, alsmede het bijhouden van de bewegingen van een dier daarin. Dit omzeilt gedeeltelijk de draw-back van het gebruik van een stand-alone camera over de geïntegreerde oplossingen die door operant fabrikanten van conditionering systemen, en biedt een aanvulling op handmatige score van gedrag.

Er zijn inspanningen geleverd om het protocol in een algemeen formaat te schrijven om te benadrukken dat het totale proces kan worden aangepast aan video’s van verschillende operant conditioneringstests. Om bepaalde sleutelbegrippen te illustreren, worden video’s van ratten die de 5-keuze seriële reactietijdtest (5CSRTT)17 uitvoeren, als voorbeelden gebruikt.

Protocol

Alle procedures die de behandeling van dieren omvatten zijn goedgekeurd door de Malmö-Lund Ethische commissie voor dieronderzoek. 1. Het bouwen van de videocamera OPMERKING: Een lijst van de onderdelen die nodig zijn voor het bouwen van de camera is opgenomen in de tabel met materialen. Zie ook figuur 1, figuur 2, figuur 3, figuur 4…

Representative Results

Prestaties van videocamera’s De representatieve resultaten werden verzameld in operant conditioneringskamers voor ratten met vloeroppervlakken van 28,5 cm x 25,5 cm en een hoogte van 28,5 cm. Met de fisheye lens bevestigd, de camera vangt de volledige vloer en grote delen van de omliggende muren, wanneer geplaatst boven de kamer (Figuur 7A). Als zodanig kan een goed uitzicht worden verkregen, zelfs als de camera buiten het midden op de bovenkant v…

Discussion

Dit protocol beschrijft hoe u een goedkope en flexibele videocamera bouwen die kan worden gebruikt om video’s op te nemen van operant conditioningkamers en andere gedragstestopstellingen. Het laat verder zien hoe deeplabcut te gebruiken om een sterk lichtsignaal in deze video’s te volgen, en hoe dat kan worden gebruikt om te helpen bij het identificeren van korte videosegmenten van belang in videobestanden die volledige testsessies dekken. Ten slotte beschrijft het hoe het bijhouden van het hoofd van een rat te gebruiken…

Disclosures

The authors have nothing to disclose.

Acknowledgements

Dit werk werd ondersteund door subsidies van de Swedish Brain Foundation, de Zweedse Parkinson Foundation, en de Zweedse regering Fondsen voor Klinisch Onderzoek (M.A.C.), evenals de Wenner-Gren stichtingen (M.A.C, E.K.H.C), Åhlén foundation (M.A.C) en de stichting Blanceflor Bongnim ludmoovisi, n Bildéet (S.F).

Materials

32 Gb micro SD card with New Our Of Box Software (NOOBS) preinstalled The Pi hut (https://thpihut.com) 32GB
330-Ohm resistor The Pi hut (https://thpihut.com) 100287 This article is for a package with mixed resistors, where 330-ohm resistors are included.
Camera module (Raspberry Pi NoIR camera v.2) The Pi hut (https://thpihut.com) 100004
Camera ribbon cable (Raspberry Pi Zero camera cable stub) The Pi hut (https://thpihut.com) MMP-1294 This is only needed if a Raspberry Pi zero is used. If another Raspberry Pi board is used, a suitable camera ribbon cable accompanies the camera component
Colored LEDs The Pi hut (https://thpihut.com) ADA4203 This article is for a package with mixed colors of LEDs. Any color can be used.
Female-Female jumper cables The Pi hut (https://thpihut.com) ADA266
IR LED module (Bright Pi) Pi Supply (https://uk.pi-supply.com) PIS-0027
microcomputer motherboard (Raspberry Pi Zero board with presoldered headers) The Pi hut (https://thpihut.com) 102373 Other Raspberry Pi boards can also be used, although the method for automatically starting the Python script only works with Raspberry Pi zero. If using other models, the python script needs to be started manually.
Push button switch The Pi hut (https://thpihut.com) ADA367
Raspberry Pi power supply cable The Pi hut (https://thpihut.com) 102032
Raspberry Pi Zero case The Pi hut (https://thpihut.com) 102118
Raspberry Pi, Mod my pi, camera stand with magnetic fish eye lens and magnetic metal ring attachment The Pi hut (https://thpihut.com) MMP-0310-KIT

References

  1. Pritchett, K., Mulder, G. B. Operant conditioning. Contemporary Topics in Laboratory Animal Science. 43 (4), (2004).
  2. Clemensson, E. K. H., Novati, A., Clemensson, L. E., Riess, O., Nguyen, H. P. The BACHD rat model of Huntington disease shows slowed learning in a Go/No-Go-like test of visual discrimination. Behavioural Brain Research. 359, 116-126 (2019).
  3. Asinof, S. K., Paine, T. A. The 5-choice serial reaction time task: a task of attention and impulse control for rodents. Journal of Visualized Experiments. (90), e51574 (2014).
  4. Coulbourn instruments. Graphic State: Graphic State 4 user’s manual. Coulbourn instruments. , 12-17 (2013).
  5. Med Associates Inc. Med-PC IV: Med-PC IV programmer’s manual. Med Associates Inc. , 21-44 (2006).
  6. Clemensson, E. K. H., Clemensson, L. E., Riess, O., Nguyen, H. P. The BACHD rat model of Huntingon disease shows signs of fronto-striatal dysfunction in two operant conditioning tests of short-term memory. PloS One. 12 (1), (2017).
  7. Herremans, A. H. J., Hijzen, T. H., Welborn, P. F. E., Olivier, B., Slangen, J. L. Effect of infusion of cholinergic drugs into the prefrontal cortex area on delayed matching to position performance in the rat. Brain Research. 711 (1-2), 102-111 (1996).
  8. Chudasama, Y., Muir, J. L. A behavioral analysis of the delayed non-matching to position task: the effects of scopolamine, lesions of the fornix and of the prelimbic region on mediating behaviours by rats. Psychopharmacology. 134 (1), 73-82 (1997).
  9. Talpos, J. C., McTighe, S. M., Dias, R., Saksida, L. M., Bussey, T. J. Trial-unique, delayed nonmatching-to-location (TUNL): A novel, highly hippocampus-dependent automated touchscreen test of location memory and pattern separation. Neurobiology of Learning and Memory. 94 (3), 341 (2010).
  10. Rayburn-Reeves, R. M., Moore, M. K., Smith, T. E., Crafton, D. A., Marden, K. L. Spatial midsession reversal learning in rats: Effects of egocentric cue use and memory. Behavioural Processes. 152, 10-17 (2018).
  11. Gallo, A., Duchatelle, E., Elkhessaimi, A., Le Pape, G., Desportes, J. Topographic analysis of the rat’s behavior in the Skinner box. Behavioural Processes. 33 (3), 318-328 (1995).
  12. Iversen, I. H. Response-initiated imaging of operant behavior using a digital camera. Journal of the Experimental Analysis of Behavior. 77 (3), 283-300 (2002).
  13. Med Associates Inc. Video monitor: Video monitor SOF-842 user’s manual. Med Associates Inc. , 26-30 (2004).
  14. . Coulbourn Instruments Available from: https://www.coulbourn.com/product_p/h39-16.htm (2020)
  15. Mathis, A., et al. DeepLabCut: markerless pose estimation of user-defined body parts with deep learning. Nature Neuroscience. 21 (9), 1281-1289 (2018).
  16. Nath, T., Mathis, A., Chen, A. C., Patel, A., Bethge, M., Mathis, M. W. Using DeepLabCut for 3D markerless pose estimation across species and behaviors. Nature Protocols. 14 (7), 2152-2176 (2019).
  17. Bari, A., Dalley, J. W., Robbins, T. W. The application of the 5-chopice serial reaction time task for the assessment of visual attentional processes and impulse control in rats. Nature Protocols. 3 (5), 759-767 (2008).
  18. . Raspberry Pi foundation Available from: https://thepi.io/how-to-install-raspbian-on-the-raspberry-pi/ (2020)
  19. . Pi-supply Available from: https://learn.pi-supply.com/make/bright-pi-quickstart-faq/ (2018)
  20. . Python Available from: https://wiki.python.org/moin/BeginnersGuide/NonProgrammers (2020)
  21. . MathWorks Available from: https://mathworks.com/academia/highschool/ (2020)
  22. . Cran.R-Project.org Available from: https://cran.r-project.org/manuals.html (2020)
  23. Liu, Y., Tian, C., Huang, Y. . Critical assessment of correction methods for fisheye lens distortion. The international archives of the photogrammetry, remote sensing and spatial information sciences. , (2016).
  24. Pereira, T. D., et al. Fast animal pose estimation using deep neural networks. Nature Methods. 16 (1), 117-125 (2019).
  25. Graving, J. M., et al. DeepPoseKit, a software toolkit for fast and robust animal pose estimation using deep learning. Elife. 8 (47994), (2019).
  26. Geuther, B. Q., et al. Robust mouse tracking in complex environments using neural networks. Communications Biology. 2 (124), (2019).
check_url/cn/61409?article_type=t

Play Video

Cite This Article
Clemensson, E. K. H., Abbaszadeh, M., Fanni, S., Espa, E., Cenci, M. A. Tracking Rats in Operant Conditioning Chambers Using a Versatile Homemade Video Camera and DeepLabCut. J. Vis. Exp. (160), e61409, doi:10.3791/61409 (2020).

View Video