Summary

Monitoraggio dei ratti nelle camere di condizionamento operanti utilizzando una videocamera fatta in casa versatile e DeepLabCut

Published: June 15, 2020
doi:

Summary

Questo protocollo descrive come costruire una videocamera piccola e versatile e come utilizzare video ottenuti da essa per addestrare una rete neurale a tracciare la posizione di un animale all’interno di camere di condizionamento operanti. Si tratta di un valido complemento alle analisi standard dei log dei dati ottenuti da test di condizionamento operanti.

Abstract

Le camere di condizionamento operanti sono utilizzate per eseguire una vasta gamma di test comportamentali nel campo delle neuroscienze. I dati registrati si basano in genere sull’innesco di sensori a leva e naso-poke presenti all’interno delle camere. Anche se questo fornisce una visione dettagliata di quando e come gli animali eseguono determinate risposte, non può essere utilizzato per valutare i comportamenti che non attivano alcun sensore. Come tale, valutare come gli animali si posizionano e si muovono all’interno della camera è raramente possibile. Per ottenere queste informazioni, i ricercatori in genere devono registrare e analizzare i video. I produttori di camere di condizionamento operanti possono in genere fornire ai propri clienti configurazioni di telecamere di alta qualità. Tuttavia, questi possono essere molto costosi e non si adattano necessariamente camere di altri produttori o altre configurazioni di test comportamentali. Il protocollo attuale descrive come costruire una videocamera economica e versatile utilizzando componenti elettronici per hobby. Descrive inoltre come utilizzare il pacchetto software di analisi delle immagini DeepLabCut per tenere traccia dello stato di un segnale luminoso forte, nonché la posizione di un ratto, nei video raccolti da una camera di condizionamento operante. Il primo è un grande aiuto nella scelta di brevi segmenti di interesse per i video che coprono intere sessioni di test, e il secondo consente l’analisi di parametri che non possono essere ottenuti dai registri di dati prodotti dalle camere operanti.

Introduction

Nel campo delle neuroscienze comportamentali, i ricercatori usano comunemente camere di condizionamento operanti per valutare una vasta gamma di diverse caratteristiche cognitive e psichiatriche nei roditori. Mentre ci sono diversi produttori di tali sistemi, in genere condividono alcuni attributi e hanno un design quasi standardizzato1,2,3.3 Le camere sono generalmente a forma quadrata o rettangolare, con una parete che può essere aperta per posizionare gli animali all’interno, e una o due delle pareti rimanenti contenenti componenti come leve, aperture naso-poke, vassoi di ricompensa, ruote di risposta e luci di vario tipo1,2,3. Le luci e i sensori presenti nelle camere sono utilizzati sia per controllare il protocollo di prova che per tracciare i comportamenti degli animali1,2,3,4,5. I tipici sistemi di condizionamento operanti consentono un’analisi molto dettagliata di come gli animali interagiscono con i diversi operandi e le aperture presenti nelle camere. In generale, tutte le occasioni in cui i sensori vengono attivati possono essere registrati dal sistema, e da questi dati gli utenti possono ottenere file di log dettagliati che descrivono ciò che l’animale ha fatto durante passaggi specifici del test4,5. Mentre questo fornisce una rappresentazione estesa delle prestazioni di un animale, può essere utilizzato solo per descrivere i comportamenti che attivano direttamente uno o più sensori4,5. Di conseguenza, gli aspetti relativi al modo in cui l’animale si posiziona e si muove all’interno della camera durante le diverse fasi del test non sono ben descritti6,7,8,9,9.10 Questo è un peccato, in quanto tali informazioni possono essere preziose per comprendere appieno il comportamento dell’animale. Ad esempio, può essere utilizzato per chiarire perché alcuni animali si comportano male su un determinato test6, per descrivere le strategie che gli animali potrebbero sviluppare per gestire compiti difficili6,7,8,9,10, o per apprezzare la vera complessità di comportamenti presumibilmente semplici11,12. Per ottenere tali informazioni articolate, i ricercatori si rivolgono comunemente all’analisi manuale dei video6,7,8,9,10,11.

Quando si registrano video da camere di condizionamento operanti, la scelta della fotocamera è fondamentale. Le camere sono comunemente situate in cubi isolati, con protocolli che spesso fanno uso di gradini in cui nessuna luce visibile splende3,6,7,8,9. Pertanto, l’uso dell’illuminazione a infrarossi (IR) in combinazione con una fotocamera sensibile agli infrarossi è necessario, in quanto consente la visibilità anche in completa oscurità. Inoltre, lo spazio disponibile per posizionare una fotocamera all’interno del cubicolo di isolamento è spesso molto limitato, il che significa che si beneficia noto fortemente di avere piccole telecamere che utilizzano lenti con un ampio campo visivo (ad esempio, lenti fish-eye)9. Mentre i produttori di sistemi di condizionamento operanti possono spesso fornire configurazioni di telecamere di alta qualità ai loro clienti, questi sistemi possono essere costosi e non si adattano necessariamente camere di altri produttori o configurazioni per altri test comportamentali. Tuttavia, un notevole vantaggio rispetto all’utilizzo di videocamere autonome è che queste configurazioni possono spesso interfacciarsi direttamente con i sistemi di condizionamento operanti13,14. In questo modo, possono essere impostati solo per registrare eventi specifici anziché sessioni di test complete, che possono essere notevolmente aiutate nell’analisi che segue.

Il protocollo attuale descrive come costruire una videocamera economica e versatile utilizzando componenti elettronici per hobby. La fotocamera utilizza un obiettivo fisheye, è sensibile all’illuminazione IR e ha una serie di diodi a emissione di luce IR (LED IR) collegati ad esso. Inoltre, è costruito per avere un profilo piatto e sottile. Insieme, questi aspetti lo rendono ideale per la registrazione di video dalla maggior parte delle camere di condizionamento operanti disponibili in commercio e da altre configurazioni di test comportamentali. Il protocollo descrive inoltre come elaborare i video ottenuti con la fotocamera e come utilizzare il pacchetto software DeepLabCut15,16 per aiutare a estrarre sequenze video di interesse e a monitorare i movimenti di un animale in esso contenuti. Questo elude parzialmente il draw-back dell’utilizzo di una fotocamera stand-alone rispetto alle soluzioni integrate fornite dai produttori operanti di sistemi di condizionamento, e offre un complemento al punteggio manuale dei comportamenti.

Sono stati compiuti sforzi per scrivere il protocollo in un formato generale per evidenziare che il processo complessivo può essere adattato ai video di diversi test di condizionamento operanti. Per illustrare alcuni concetti chiave, i video dei ratti che eseguono il test del tempo di reazione seriale a 5 scelte (5CSRTT)17 vengono utilizzati come esempi.

Protocol

Tutte le procedure che includono la movimentazione degli animali sono state approvate dal comitato etico Malmà-Lund per la ricerca sugli animali. 1. Costruire la videocamera NOTA: nella Tabella dei materialiè disponibile un elenco dei componenti necessari per la costruzione della videocamera. Fare riferimento anche alla figura 1, Figura 2, Figura 3, <strong cla…

Representative Results

Prestazioni della videocamera I risultati rappresentativi sono stati raccolti in camere di condizionamento operanti per ratti con superfici del pavimento di 28,5 cm x 25,5 cm e altezze di 28,5 cm. Con l’obiettivo fisheye attaccato, la fotocamera cattura l’intera superficie del pavimento e grandi parti delle pareti circostanti, quando posizionate sopra la camera (Figura 7A). Come tale, una buona vista può essere ottenuta, anche se la fotocamera è…

Discussion

Questo protocollo descrive come costruire una videocamera economica e flessibile che può essere utilizzata per registrare video da camere di condizionamento operanti e altre configurazioni di test comportamentali. Dimostra inoltre come utilizzare DeepLabCut per monitorare un forte segnale luminoso all’interno di questi video e come questo può essere utilizzato per aiutare a identificare brevi segmenti video di interesse nei file video che coprono sessioni di test complete. Infine, descrive come utilizzare il tracciamen…

Declarações

The authors have nothing to disclose.

Acknowledgements

Questo lavoro è stato sostenuto dalle sovvenzioni della Swedish Brain Foundation, della Swedish Parkinson Foundation e dei Fondi governativi svedesi per la ricerca clinica (M.A.C.), nonché dalle fondazioni Wenner-Gren (M.A.C, E.K.H.C), dalla fondazione .hlén (M.A.C) e dalla fondazione Blanceflor Bon Lucompagnidovisi, née né Bildt (S.F).

Materials

32 Gb micro SD card with New Our Of Box Software (NOOBS) preinstalled The Pi hut (https://thpihut.com) 32GB
330-Ohm resistor The Pi hut (https://thpihut.com) 100287 This article is for a package with mixed resistors, where 330-ohm resistors are included.
Camera module (Raspberry Pi NoIR camera v.2) The Pi hut (https://thpihut.com) 100004
Camera ribbon cable (Raspberry Pi Zero camera cable stub) The Pi hut (https://thpihut.com) MMP-1294 This is only needed if a Raspberry Pi zero is used. If another Raspberry Pi board is used, a suitable camera ribbon cable accompanies the camera component
Colored LEDs The Pi hut (https://thpihut.com) ADA4203 This article is for a package with mixed colors of LEDs. Any color can be used.
Female-Female jumper cables The Pi hut (https://thpihut.com) ADA266
IR LED module (Bright Pi) Pi Supply (https://uk.pi-supply.com) PIS-0027
microcomputer motherboard (Raspberry Pi Zero board with presoldered headers) The Pi hut (https://thpihut.com) 102373 Other Raspberry Pi boards can also be used, although the method for automatically starting the Python script only works with Raspberry Pi zero. If using other models, the python script needs to be started manually.
Push button switch The Pi hut (https://thpihut.com) ADA367
Raspberry Pi power supply cable The Pi hut (https://thpihut.com) 102032
Raspberry Pi Zero case The Pi hut (https://thpihut.com) 102118
Raspberry Pi, Mod my pi, camera stand with magnetic fish eye lens and magnetic metal ring attachment The Pi hut (https://thpihut.com) MMP-0310-KIT

Referências

  1. Pritchett, K., Mulder, G. B. Operant conditioning. Contemporary Topics in Laboratory Animal Science. 43 (4), (2004).
  2. Clemensson, E. K. H., Novati, A., Clemensson, L. E., Riess, O., Nguyen, H. P. The BACHD rat model of Huntington disease shows slowed learning in a Go/No-Go-like test of visual discrimination. Behavioural Brain Research. 359, 116-126 (2019).
  3. Asinof, S. K., Paine, T. A. The 5-choice serial reaction time task: a task of attention and impulse control for rodents. Journal of Visualized Experiments. (90), e51574 (2014).
  4. Coulbourn instruments. Graphic State: Graphic State 4 user’s manual. Coulbourn instruments. , 12-17 (2013).
  5. Med Associates Inc. Med-PC IV: Med-PC IV programmer’s manual. Med Associates Inc. , 21-44 (2006).
  6. Clemensson, E. K. H., Clemensson, L. E., Riess, O., Nguyen, H. P. The BACHD rat model of Huntingon disease shows signs of fronto-striatal dysfunction in two operant conditioning tests of short-term memory. PloS One. 12 (1), (2017).
  7. Herremans, A. H. J., Hijzen, T. H., Welborn, P. F. E., Olivier, B., Slangen, J. L. Effect of infusion of cholinergic drugs into the prefrontal cortex area on delayed matching to position performance in the rat. Brain Research. 711 (1-2), 102-111 (1996).
  8. Chudasama, Y., Muir, J. L. A behavioral analysis of the delayed non-matching to position task: the effects of scopolamine, lesions of the fornix and of the prelimbic region on mediating behaviours by rats. Psychopharmacology. 134 (1), 73-82 (1997).
  9. Talpos, J. C., McTighe, S. M., Dias, R., Saksida, L. M., Bussey, T. J. Trial-unique, delayed nonmatching-to-location (TUNL): A novel, highly hippocampus-dependent automated touchscreen test of location memory and pattern separation. Neurobiology of Learning and Memory. 94 (3), 341 (2010).
  10. Rayburn-Reeves, R. M., Moore, M. K., Smith, T. E., Crafton, D. A., Marden, K. L. Spatial midsession reversal learning in rats: Effects of egocentric cue use and memory. Behavioural Processes. 152, 10-17 (2018).
  11. Gallo, A., Duchatelle, E., Elkhessaimi, A., Le Pape, G., Desportes, J. Topographic analysis of the rat’s behavior in the Skinner box. Behavioural Processes. 33 (3), 318-328 (1995).
  12. Iversen, I. H. Response-initiated imaging of operant behavior using a digital camera. Journal of the Experimental Analysis of Behavior. 77 (3), 283-300 (2002).
  13. Med Associates Inc. Video monitor: Video monitor SOF-842 user’s manual. Med Associates Inc. , 26-30 (2004).
  14. . Coulbourn Instruments Available from: https://www.coulbourn.com/product_p/h39-16.htm (2020)
  15. Mathis, A., et al. DeepLabCut: markerless pose estimation of user-defined body parts with deep learning. Nature Neuroscience. 21 (9), 1281-1289 (2018).
  16. Nath, T., Mathis, A., Chen, A. C., Patel, A., Bethge, M., Mathis, M. W. Using DeepLabCut for 3D markerless pose estimation across species and behaviors. Nature Protocols. 14 (7), 2152-2176 (2019).
  17. Bari, A., Dalley, J. W., Robbins, T. W. The application of the 5-chopice serial reaction time task for the assessment of visual attentional processes and impulse control in rats. Nature Protocols. 3 (5), 759-767 (2008).
  18. . Raspberry Pi foundation Available from: https://thepi.io/how-to-install-raspbian-on-the-raspberry-pi/ (2020)
  19. . Pi-supply Available from: https://learn.pi-supply.com/make/bright-pi-quickstart-faq/ (2018)
  20. . Python Available from: https://wiki.python.org/moin/BeginnersGuide/NonProgrammers (2020)
  21. . MathWorks Available from: https://mathworks.com/academia/highschool/ (2020)
  22. . Cran.R-Project.org Available from: https://cran.r-project.org/manuals.html (2020)
  23. Liu, Y., Tian, C., Huang, Y. . Critical assessment of correction methods for fisheye lens distortion. The international archives of the photogrammetry, remote sensing and spatial information sciences. , (2016).
  24. Pereira, T. D., et al. Fast animal pose estimation using deep neural networks. Nature Methods. 16 (1), 117-125 (2019).
  25. Graving, J. M., et al. DeepPoseKit, a software toolkit for fast and robust animal pose estimation using deep learning. Elife. 8 (47994), (2019).
  26. Geuther, B. Q., et al. Robust mouse tracking in complex environments using neural networks. Communications Biology. 2 (124), (2019).

Play Video

Citar este artigo
Clemensson, E. K. H., Abbaszadeh, M., Fanni, S., Espa, E., Cenci, M. A. Tracking Rats in Operant Conditioning Chambers Using a Versatile Homemade Video Camera and DeepLabCut. J. Vis. Exp. (160), e61409, doi:10.3791/61409 (2020).

View Video