Summary

Rastreando ratos em câmaras de condicionamento operantes usando uma versátil câmera de vídeo caseira e deeplabcut

Published: June 15, 2020
doi:

Summary

Este protocolo descreve como construir uma pequena e versátil câmera de vídeo, e como usar vídeos obtidos a partir dele para treinar uma rede neural para rastrear a posição de um animal dentro de câmaras de condicionamento operantes. Este é um complemento valioso às análises padrão de registros de dados obtidos a partir de testes de condicionamento operantes.

Abstract

As câmaras de condicionamento operantes são usadas para realizar uma ampla gama de testes comportamentais no campo da neurociência. Os dados registrados são tipicamente baseados no acionamento de sensores de alavanca e cutucador de nariz presentes dentro das câmaras. Embora isso forneça uma visão detalhada de quando e como os animais executam certas respostas, ele não pode ser usado para avaliar comportamentos que não acionam nenhum sensor. Como tal, avaliar como os animais se posicionam e se movem dentro da câmara raramente é possível. Para obter essas informações, os pesquisadores geralmente têm que gravar e analisar vídeos. Os fabricantes de câmaras de condicionamento operantes podem normalmente fornecer aos seus clientes configurações de câmera de alta qualidade. No entanto, estes podem ser muito caros e não necessariamente se encaixam em câmaras de outros fabricantes ou outras configurações de teste comportamental. O protocolo atual descreve como construir uma câmera de vídeo barata e versátil usando componentes eletrônicos de hobby. Ele descreve ainda como usar o pacote de software de análise de imagens DeepLabCut para rastrear o status de um sinal de luz forte, bem como a posição de um rato, em vídeos reunidos a partir de uma câmara de condicionamento operante. O primeiro é um grande auxílio na seleção de segmentos curtos de interesse em vídeos que cobrem sessões de teste inteiras, e este último permite a análise de parâmetros que não podem ser obtidos a partir dos registros de dados produzidos pelas câmaras operárias.

Introduction

No campo da neurociência comportamental, os pesquisadores geralmente usam câmaras de condicionamento operantes para avaliar uma ampla gama de diferentes características cognitivas e psiquiátricas em roedores. Embora existam vários fabricantes diferentes desses sistemas, eles normalmente compartilham certos atributos e têm um design quase padronizado1,,2,,3. As câmaras são geralmente quadradas ou em forma de retângulo, com uma parede que pode ser aberta para a colocação de animais dentro, e uma ou duas das paredes restantes contendo componentes como alavancas, aberturas de nariz,bandejas de recompensa, rodas de resposta e luzes de vários tipos1,,2,,3. As luzes e sensores presentes nas câmaras são usados tanto para controlar o protocolo de teste quanto para rastrear os comportamentos dos animais1,,2,,3,4,5. Os sistemas típicos de condicionamento operante permitem uma análise muito detalhada de como os animais interagem com as diferentes operanda e aberturas presentes nas câmaras. Em geral, quaisquer ocasiões em que os sensores são acionados podem ser registrados pelo sistema, e a partir desses dados os usuários podem obter arquivos de registro detalhados descrevendo o que o animal fez durante etapas específicas do teste4,,5. Embora isso forneça uma representação extensiva do desempenho de um animal, ele só pode ser usado para descrever comportamentos que acionam diretamente um ou mais sensores4,,5. Como tal, aspectos relacionados à forma como o animal se posiciona e se move dentro da câmara durante diferentes fases do teste não são bem descritos6,7,8,,9,10. Isso é lamentável, pois tais informações podem ser valiosas para entender completamente o comportamento do animal. Por exemplo, pode ser usado para esclarecer por que certos animais têm um desempenho ruim em um determinado teste6, para descrever as estratégias que os animais podem desenvolver para lidar com tarefas difíceis6,,7,,8,,9,,10, ou para apreciar a verdadeira complexidade de comportamentos supostamente simples11,,12. Para obter tais informações articuladas, os pesquisadores geralmente recorrem à análise manual dos vídeos6,,7,,8,,9,,10,11.

Ao gravar vídeos de câmaras de condicionamento operantes, a escolha da câmera é crítica. As câmaras são comumente localizadas em cubículos isolados, com protocolos frequentemente fazendo uso de passos onde nenhuma luz visível está brilhando3,,6,7,,8,9. Portanto, é necessário o uso da iluminação infravermelh (IR) em combinação com uma câmera sensível ao IR, pois permite visibilidade mesmo na escuridão completa. Além disso, o espaço disponível para colocar uma câmera dentro do cubículo de isolamento é muitas vezes muito limitado, o que significa que se beneficia fortemente de ter pequenas câmeras que usam lentes com um amplo campo de visão (por exemplo, lentes olho de peixe)9. Embora os fabricantes de sistemas de condicionamento operantes possam muitas vezes fornecer configurações de câmera de alta qualidade para seus clientes, esses sistemas podem ser caros e não necessariamente se encaixam em câmaras de outros fabricantes ou configurações para outros testes comportamentais. No entanto, um benefício notável sobre o uso de câmeras de vídeo autônomas é que essas configurações podem muitas vezes interagir diretamente com os sistemas de condicionamento operantes13,14. Com isso, eles podem ser configurados apenas para registrar eventos específicos em vez de sessões de teste completas, o que pode ajudar muito na análise que se segue.

O protocolo atual descreve como construir uma câmera de vídeo barata e versátil usando componentes eletrônicos de hobby. A câmera usa uma lente olho de peixe, é sensível à iluminação ir e tem um conjunto de diodos emissores de luz IR (IR LEDs) ligados a ela. Além disso, ele é construído para ter um perfil plano e fino. Juntos, esses aspectos o tornam ideal para a gravação de vídeos das câmaras de condicionamento operantes mais disponíveis comercialmente, bem como outras configurações de teste comportamental. O protocolo descreve ainda como processar vídeos obtidos com a câmera e como usar o pacote de software DeepLabCut15,16 para ajudar na extração de sequências de vídeo de interesse, bem como no rastreamento dos movimentos de um animal nele. Isso contorna parcialmente o recuo do uso de uma câmera autônoma sobre as soluções integradas fornecidas pelos fabricantes operantes de sistemas de condicionamento, e oferece um complemento à pontuação manual de comportamentos.

Esforços foram feitos para escrever o protocolo em um formato geral para destacar que o processo geral pode ser adaptado a vídeos de diferentes testes de condicionamento operativo. Para ilustrar certos conceitos-chave, vídeos de ratos realizando o teste de tempo de reação serial de 5 opções (5CSRTT)17 são usados como exemplos.

Protocol

Todos os procedimentos que incluem o manejo de animais foram aprovados pelo comitê de ética de Malmö-Lund para pesquisa animal. 1. Construindo a câmera de vídeo NOTA: Uma lista dos componentes necessários para a construção da câmera é fornecida na Tabela de Materiais. Refere-se também à Figura 1, Figura 2, Figura 3, Figura 4</stro…

Representative Results

Desempenho da câmera de vídeo Os resultados representativos foram reunidos em câmaras de condicionamento operativo para ratos com áreas de piso de 28,5 cm x 25,5 cm, e alturas de 28,5 cm. Com a lente olho de peixe anexada, a câmera captura toda a área do piso e grandes partes das paredes circundantes, quando colocada acima da câmara(Figura 7A). Como tal, uma boa visão pode ser obtida, mesmo que a câmera seja colocada fora do centro na par…

Discussion

Este protocolo descreve como construir uma câmera de vídeo barata e flexível que pode ser usada para gravar vídeos de câmaras de condicionamento operantes e outras configurações de teste comportamental. Ele demonstra ainda como usar o DeepLabCut para rastrear um sinal de luz forte dentro desses vídeos, e como isso pode ser usado para ajudar na identificação de breves segmentos de vídeo de interesse em arquivos de vídeo que cobrem sessões de teste completas. Finalmente, descreve como usar o rastreamento da ca…

Offenlegungen

The authors have nothing to disclose.

Acknowledgements

Este trabalho foi apoiado por subsídios da Swedish Brain Foundation, da Fundação Sueca de Parkinson e do Fundo do Governo Sueco para Pesquisa Clínica (M.A.C.), bem como das fundações Wenner-Gren (M.A.C, E.K.H.C), fundação Åhlén (M.A.C) e da fundação Blanceflor Boncompagni Ludovisi, nascida Bildt (S.F).

Materials

32 Gb micro SD card with New Our Of Box Software (NOOBS) preinstalled The Pi hut (https://thpihut.com) 32GB
330-Ohm resistor The Pi hut (https://thpihut.com) 100287 This article is for a package with mixed resistors, where 330-ohm resistors are included.
Camera module (Raspberry Pi NoIR camera v.2) The Pi hut (https://thpihut.com) 100004
Camera ribbon cable (Raspberry Pi Zero camera cable stub) The Pi hut (https://thpihut.com) MMP-1294 This is only needed if a Raspberry Pi zero is used. If another Raspberry Pi board is used, a suitable camera ribbon cable accompanies the camera component
Colored LEDs The Pi hut (https://thpihut.com) ADA4203 This article is for a package with mixed colors of LEDs. Any color can be used.
Female-Female jumper cables The Pi hut (https://thpihut.com) ADA266
IR LED module (Bright Pi) Pi Supply (https://uk.pi-supply.com) PIS-0027
microcomputer motherboard (Raspberry Pi Zero board with presoldered headers) The Pi hut (https://thpihut.com) 102373 Other Raspberry Pi boards can also be used, although the method for automatically starting the Python script only works with Raspberry Pi zero. If using other models, the python script needs to be started manually.
Push button switch The Pi hut (https://thpihut.com) ADA367
Raspberry Pi power supply cable The Pi hut (https://thpihut.com) 102032
Raspberry Pi Zero case The Pi hut (https://thpihut.com) 102118
Raspberry Pi, Mod my pi, camera stand with magnetic fish eye lens and magnetic metal ring attachment The Pi hut (https://thpihut.com) MMP-0310-KIT

Referenzen

  1. Pritchett, K., Mulder, G. B. Operant conditioning. Contemporary Topics in Laboratory Animal Science. 43 (4), (2004).
  2. Clemensson, E. K. H., Novati, A., Clemensson, L. E., Riess, O., Nguyen, H. P. The BACHD rat model of Huntington disease shows slowed learning in a Go/No-Go-like test of visual discrimination. Behavioural Brain Research. 359, 116-126 (2019).
  3. Asinof, S. K., Paine, T. A. The 5-choice serial reaction time task: a task of attention and impulse control for rodents. Journal of Visualized Experiments. (90), e51574 (2014).
  4. Coulbourn instruments. Graphic State: Graphic State 4 user’s manual. Coulbourn instruments. , 12-17 (2013).
  5. Med Associates Inc. Med-PC IV: Med-PC IV programmer’s manual. Med Associates Inc. , 21-44 (2006).
  6. Clemensson, E. K. H., Clemensson, L. E., Riess, O., Nguyen, H. P. The BACHD rat model of Huntingon disease shows signs of fronto-striatal dysfunction in two operant conditioning tests of short-term memory. PloS One. 12 (1), (2017).
  7. Herremans, A. H. J., Hijzen, T. H., Welborn, P. F. E., Olivier, B., Slangen, J. L. Effect of infusion of cholinergic drugs into the prefrontal cortex area on delayed matching to position performance in the rat. Brain Research. 711 (1-2), 102-111 (1996).
  8. Chudasama, Y., Muir, J. L. A behavioral analysis of the delayed non-matching to position task: the effects of scopolamine, lesions of the fornix and of the prelimbic region on mediating behaviours by rats. Psychopharmacology. 134 (1), 73-82 (1997).
  9. Talpos, J. C., McTighe, S. M., Dias, R., Saksida, L. M., Bussey, T. J. Trial-unique, delayed nonmatching-to-location (TUNL): A novel, highly hippocampus-dependent automated touchscreen test of location memory and pattern separation. Neurobiology of Learning and Memory. 94 (3), 341 (2010).
  10. Rayburn-Reeves, R. M., Moore, M. K., Smith, T. E., Crafton, D. A., Marden, K. L. Spatial midsession reversal learning in rats: Effects of egocentric cue use and memory. Behavioural Processes. 152, 10-17 (2018).
  11. Gallo, A., Duchatelle, E., Elkhessaimi, A., Le Pape, G., Desportes, J. Topographic analysis of the rat’s behavior in the Skinner box. Behavioural Processes. 33 (3), 318-328 (1995).
  12. Iversen, I. H. Response-initiated imaging of operant behavior using a digital camera. Journal of the Experimental Analysis of Behavior. 77 (3), 283-300 (2002).
  13. Med Associates Inc. Video monitor: Video monitor SOF-842 user’s manual. Med Associates Inc. , 26-30 (2004).
  14. . Coulbourn Instruments Available from: https://www.coulbourn.com/product_p/h39-16.htm (2020)
  15. Mathis, A., et al. DeepLabCut: markerless pose estimation of user-defined body parts with deep learning. Nature Neuroscience. 21 (9), 1281-1289 (2018).
  16. Nath, T., Mathis, A., Chen, A. C., Patel, A., Bethge, M., Mathis, M. W. Using DeepLabCut for 3D markerless pose estimation across species and behaviors. Nature Protocols. 14 (7), 2152-2176 (2019).
  17. Bari, A., Dalley, J. W., Robbins, T. W. The application of the 5-chopice serial reaction time task for the assessment of visual attentional processes and impulse control in rats. Nature Protocols. 3 (5), 759-767 (2008).
  18. . Raspberry Pi foundation Available from: https://thepi.io/how-to-install-raspbian-on-the-raspberry-pi/ (2020)
  19. . Pi-supply Available from: https://learn.pi-supply.com/make/bright-pi-quickstart-faq/ (2018)
  20. . Python Available from: https://wiki.python.org/moin/BeginnersGuide/NonProgrammers (2020)
  21. . MathWorks Available from: https://mathworks.com/academia/highschool/ (2020)
  22. . Cran.R-Project.org Available from: https://cran.r-project.org/manuals.html (2020)
  23. Liu, Y., Tian, C., Huang, Y. . Critical assessment of correction methods for fisheye lens distortion. The international archives of the photogrammetry, remote sensing and spatial information sciences. , (2016).
  24. Pereira, T. D., et al. Fast animal pose estimation using deep neural networks. Nature Methods. 16 (1), 117-125 (2019).
  25. Graving, J. M., et al. DeepPoseKit, a software toolkit for fast and robust animal pose estimation using deep learning. Elife. 8 (47994), (2019).
  26. Geuther, B. Q., et al. Robust mouse tracking in complex environments using neural networks. Communications Biology. 2 (124), (2019).
check_url/de/61409?article_type=t

Play Video

Diesen Artikel zitieren
Clemensson, E. K. H., Abbaszadeh, M., Fanni, S., Espa, E., Cenci, M. A. Tracking Rats in Operant Conditioning Chambers Using a Versatile Homemade Video Camera and DeepLabCut. J. Vis. Exp. (160), e61409, doi:10.3791/61409 (2020).

View Video