Summary

Seguimiento de ratas en cámaras de acondicionamiento de operantes utilizando una cámara de vídeo casera versátil y DeepLabCut

Published: June 15, 2020
doi:

Summary

Este protocolo describe cómo construir una cámara de video pequeña y versátil, y cómo utilizar los videos obtenidos de ella para entrenar una red neuronal para rastrear la posición de un animal dentro de las cámaras de acondicionamiento de operandos. Este es un valioso complemento a los análisis estándar de los registros de datos obtenidos de las pruebas de acondicionamiento de operandos.

Abstract

Las cámaras de acondicionamiento de operantes se utilizan para realizar una amplia gama de pruebas de comportamiento en el campo de la neurociencia. Los datos registrados se basan típicamente en la activación de los sensores de palanca y nariz-poke presentes dentro de las cámaras. Si bien esto proporciona una vista detallada de cuándo y cómo los animales realizan ciertas respuestas, no se puede utilizar para evaluar comportamientos que no activan ningún sensor. Como tal, evaluar cómo los animales se posicionan y se mueven dentro de la cámara rara vez es posible. Para obtener esta información, los investigadores generalmente tienen que grabar y analizar videos. Los fabricantes de cámaras de acondicionamiento de operandos normalmente pueden suministrar a sus clientes configuraciones de cámara de alta calidad. Sin embargo, estos pueden ser muy costosos y no necesariamente se ajustan a cámaras de otros fabricantes u otras configuraciones de pruebas de comportamiento. El protocolo actual describe cómo construir una cámara de video barata y versátil utilizando componentes electrónicos de hobby. Describe además cómo utilizar el paquete de software de análisis de imágenes DeepLabCut para realizar un seguimiento del estado de una señal de luz fuerte, así como la posición de una rata, en vídeos recopilados de una cámara de acondicionamiento de operando. El primero es una gran ayuda a la hora de seleccionar segmentos cortos de interés en vídeos que cubren sesiones de prueba completas, y el segundo permite el análisis de parámetros que no se pueden obtener de los registros de datos producidos por las cámaras operantes.

Introduction

En el campo de la neurociencia conductual, los investigadores suelen utilizar cámaras de acondicionamiento de operandos para evaluar una amplia gama de diferentes características cognitivas y psiquiátricas en roedores. Si bien hay varios fabricantes diferentes de estos sistemas, por lo general comparten ciertos atributos y tienen un diseño casi estandarizado1,,2,3. Las cámaras son generalmente cuadradas o rectangulares, con una pared que se puede abrir para colocar animales en el interior, y una o dos de las paredes restantes que contienen componentes tales como palancas, aberturas de golpe de nariz, bandejas de recompensa, ruedas de respuesta y luces de varios tipos1,,2,,3. Las luces y sensores presentes en las cámaras se utilizan tanto para controlar el protocolo de ensayo como para realizar un seguimiento de los comportamientos de los animales1,2,3,4,5. Los sistemas típicos de acondicionamiento de operandos permiten un análisis muy detallado de cómo los animales interactúan con las diferentes operandodas y aberturas presentes en las cámaras. En general, cualquier ocasión en que se activen sensores puede ser grabada por el sistema, y a partir de estos datos los usuarios pueden obtener archivos de registro detallados que describen lo que el animal hizo durante pasos específicos de la prueba4,,5. Si bien esto proporciona una representación extensa del rendimiento de un animal, sólo se puede utilizar para describir comportamientos que activan directamente uno o más sensores4,5. Como tal, los aspectos relacionados con cómo el animal se posiciona y se mueve dentro de la cámara durante las diferentes fases de la prueba no están bien descritos6,7,8,9,10. Esto es desafortunado, ya que tal información puede ser valiosa para entender completamente el comportamiento del animal. Por ejemplo, se puede utilizar para aclarar por qué ciertos animales tienen un rendimiento deficiente en una prueba dada6,para describir las estrategias que los animales podrían desarrollar para manejar tareas difíciles6,,7,8,9,10, o para apreciar la verdadera complejidad de los comportamientos supuestamente simples11,12. Para obtener dicha información articulada, los investigadores suelen recurrir al análisis manual de los vídeos6,7,8,9,10,11.

Al grabar vídeos de cámaras de acondicionamiento de operandos, la elección de la cámara es fundamental. Las cámaras se encuentran comúnmente en cubículos de aislamiento, con protocolos que suelen hacer uso de pasos donde no hay luz visiblebrilla 3,6,7,8,9. Por lo tanto, el uso de iluminación infrarroja (IR) en combinación con una cámara sensible a infrarrojos es necesario, ya que permite la visibilidad incluso en completa oscuridad. Además, el espacio disponible para colocar una cámara dentro del cubículo de aislamiento es a menudo muy limitado, lo que significa que uno se beneficia fuertemente de tener cámaras pequeñas que utilizan lentes con un amplio campo de visión (por ejemplo, lentes de ojo de pez)9. Mientras que los fabricantes de sistemas de acondicionamiento de operandos a menudo pueden suministrar configuraciones de cámara de alta calidad a sus clientes, estos sistemas pueden ser costosos y no necesariamente se adaptan a cámaras de otros fabricantes o configuraciones para otras pruebas de comportamiento. Sin embargo, una ventaja notable sobre el uso de cámaras de vídeo independientes es que estas configuraciones a menudo pueden interactuar directamente con los sistemas de acondicionamiento deoperandos 13,14. A través de esto, se pueden configurar para registrar sólo eventos específicos en lugar de sesiones de prueba completas, lo que puede ayudar en gran medida en el análisis que sigue.

El protocolo actual describe cómo construir una cámara de video barata y versátil utilizando componentes electrónicos de hobby. La cámara utiliza una lente ojo de pez, es sensible a la iluminación IR y tiene un conjunto de diodos emisores de luz IR (LED IR) conectados a ella. Además, está construido para tener un perfil plano y delgado. Juntos, estos aspectos lo hacen ideal para grabar videos de la mayoría de las cámaras de acondicionamiento de operandos disponibles comercialmente, así como otras configuraciones de pruebas de comportamiento. El protocolo describe además cómo procesar los vídeos obtenidos con la cámara y cómo utilizar el paquete de software DeepLabCut15,16 para ayudar en la extracción de secuencias de vídeo de interés, así como el seguimiento de los movimientos de un animal en el mismo. Esto evita parcialmente el uso de una cámara independiente sobre las soluciones integradas proporcionadas por los fabricantes de operantes de sistemas de acondicionamiento, y ofrece un complemento a la puntuación manual de comportamientos.

Se han hecho esfuerzos para escribir el protocolo en un formato general para destacar que el proceso general se puede adaptar a los videos de diferentes pruebas de acondicionamiento de operandos. Para ilustrar ciertos conceptos clave, los videos de ratas que realizan la prueba de tiempo de reacción en serie de 5 opciones (5CSRTT)17 se utilizan como ejemplos.

Protocol

Todos los procedimientos que incluyen el manejo de animales han sido aprobados por el Comité ético malmo-Lund para la investigación animal. 1. Construcción de la cámara de vídeo NOTA: En la Tabla de materialesse proporciona una lista de los componentes necesarios para construir la cámara. Refiera también al cuadro 1, al cuadro 2, al cuadro 3, <strong clas…

Representative Results

Rendimiento de la cámara de vídeo Los resultados representativos se reunieron en cámaras de acondicionamiento de operantes para ratas con superficies de 28,5 cm x 25,5 cm, y alturas de 28,5 cm. Con la lente ojo de pez conectada, la cámara captura el área completa del suelo y grandes partes de las paredes circundantes, cuando se coloca por encima de la cámara (Figura 7A). Como tal, se puede obtener una buena vista, incluso si la cámara se co…

Discussion

Este protocolo describe cómo construir una cámara de video económica y flexible que se puede utilizar para grabar videos de cámaras de acondicionamiento de operandos y otras configuraciones de pruebas de comportamiento. Además, demuestra cómo utilizar DeepLabCut para rastrear una señal de luz fuerte dentro de estos videos, y cómo se puede utilizar para ayudar a identificar segmentos de vídeo breves de interés en archivos de vídeo que cubren sesiones de prueba completas. Por último, describe cómo utilizar el …

Disclosures

The authors have nothing to disclose.

Acknowledgements

Este trabajo fue apoyado por subvenciones de la Fundación Cerebral Sueca, la Fundación Sueca del Parkinson y los Fondos del Gobierno sueco para la Investigación Clínica (M.A.C.), así como las fundaciones Wenner-Gren (M.A.C, E.K.H.C), la Fundación Hlén (M.A.C.) y la fundación Blanceflor Boncompagni Ludovisi, de soltera Bildt (S.F).

Materials

32 Gb micro SD card with New Our Of Box Software (NOOBS) preinstalled The Pi hut (https://thpihut.com) 32GB
330-Ohm resistor The Pi hut (https://thpihut.com) 100287 This article is for a package with mixed resistors, where 330-ohm resistors are included.
Camera module (Raspberry Pi NoIR camera v.2) The Pi hut (https://thpihut.com) 100004
Camera ribbon cable (Raspberry Pi Zero camera cable stub) The Pi hut (https://thpihut.com) MMP-1294 This is only needed if a Raspberry Pi zero is used. If another Raspberry Pi board is used, a suitable camera ribbon cable accompanies the camera component
Colored LEDs The Pi hut (https://thpihut.com) ADA4203 This article is for a package with mixed colors of LEDs. Any color can be used.
Female-Female jumper cables The Pi hut (https://thpihut.com) ADA266
IR LED module (Bright Pi) Pi Supply (https://uk.pi-supply.com) PIS-0027
microcomputer motherboard (Raspberry Pi Zero board with presoldered headers) The Pi hut (https://thpihut.com) 102373 Other Raspberry Pi boards can also be used, although the method for automatically starting the Python script only works with Raspberry Pi zero. If using other models, the python script needs to be started manually.
Push button switch The Pi hut (https://thpihut.com) ADA367
Raspberry Pi power supply cable The Pi hut (https://thpihut.com) 102032
Raspberry Pi Zero case The Pi hut (https://thpihut.com) 102118
Raspberry Pi, Mod my pi, camera stand with magnetic fish eye lens and magnetic metal ring attachment The Pi hut (https://thpihut.com) MMP-0310-KIT

References

  1. Pritchett, K., Mulder, G. B. Operant conditioning. Contemporary Topics in Laboratory Animal Science. 43 (4), (2004).
  2. Clemensson, E. K. H., Novati, A., Clemensson, L. E., Riess, O., Nguyen, H. P. The BACHD rat model of Huntington disease shows slowed learning in a Go/No-Go-like test of visual discrimination. Behavioural Brain Research. 359, 116-126 (2019).
  3. Asinof, S. K., Paine, T. A. The 5-choice serial reaction time task: a task of attention and impulse control for rodents. Journal of Visualized Experiments. (90), e51574 (2014).
  4. Coulbourn instruments. Graphic State: Graphic State 4 user’s manual. Coulbourn instruments. , 12-17 (2013).
  5. Med Associates Inc. Med-PC IV: Med-PC IV programmer’s manual. Med Associates Inc. , 21-44 (2006).
  6. Clemensson, E. K. H., Clemensson, L. E., Riess, O., Nguyen, H. P. The BACHD rat model of Huntingon disease shows signs of fronto-striatal dysfunction in two operant conditioning tests of short-term memory. PloS One. 12 (1), (2017).
  7. Herremans, A. H. J., Hijzen, T. H., Welborn, P. F. E., Olivier, B., Slangen, J. L. Effect of infusion of cholinergic drugs into the prefrontal cortex area on delayed matching to position performance in the rat. Brain Research. 711 (1-2), 102-111 (1996).
  8. Chudasama, Y., Muir, J. L. A behavioral analysis of the delayed non-matching to position task: the effects of scopolamine, lesions of the fornix and of the prelimbic region on mediating behaviours by rats. Psychopharmacology. 134 (1), 73-82 (1997).
  9. Talpos, J. C., McTighe, S. M., Dias, R., Saksida, L. M., Bussey, T. J. Trial-unique, delayed nonmatching-to-location (TUNL): A novel, highly hippocampus-dependent automated touchscreen test of location memory and pattern separation. Neurobiology of Learning and Memory. 94 (3), 341 (2010).
  10. Rayburn-Reeves, R. M., Moore, M. K., Smith, T. E., Crafton, D. A., Marden, K. L. Spatial midsession reversal learning in rats: Effects of egocentric cue use and memory. Behavioural Processes. 152, 10-17 (2018).
  11. Gallo, A., Duchatelle, E., Elkhessaimi, A., Le Pape, G., Desportes, J. Topographic analysis of the rat’s behavior in the Skinner box. Behavioural Processes. 33 (3), 318-328 (1995).
  12. Iversen, I. H. Response-initiated imaging of operant behavior using a digital camera. Journal of the Experimental Analysis of Behavior. 77 (3), 283-300 (2002).
  13. Med Associates Inc. Video monitor: Video monitor SOF-842 user’s manual. Med Associates Inc. , 26-30 (2004).
  14. . Coulbourn Instruments Available from: https://www.coulbourn.com/product_p/h39-16.htm (2020)
  15. Mathis, A., et al. DeepLabCut: markerless pose estimation of user-defined body parts with deep learning. Nature Neuroscience. 21 (9), 1281-1289 (2018).
  16. Nath, T., Mathis, A., Chen, A. C., Patel, A., Bethge, M., Mathis, M. W. Using DeepLabCut for 3D markerless pose estimation across species and behaviors. Nature Protocols. 14 (7), 2152-2176 (2019).
  17. Bari, A., Dalley, J. W., Robbins, T. W. The application of the 5-chopice serial reaction time task for the assessment of visual attentional processes and impulse control in rats. Nature Protocols. 3 (5), 759-767 (2008).
  18. . Raspberry Pi foundation Available from: https://thepi.io/how-to-install-raspbian-on-the-raspberry-pi/ (2020)
  19. . Pi-supply Available from: https://learn.pi-supply.com/make/bright-pi-quickstart-faq/ (2018)
  20. . Python Available from: https://wiki.python.org/moin/BeginnersGuide/NonProgrammers (2020)
  21. . MathWorks Available from: https://mathworks.com/academia/highschool/ (2020)
  22. . Cran.R-Project.org Available from: https://cran.r-project.org/manuals.html (2020)
  23. Liu, Y., Tian, C., Huang, Y. . Critical assessment of correction methods for fisheye lens distortion. The international archives of the photogrammetry, remote sensing and spatial information sciences. , (2016).
  24. Pereira, T. D., et al. Fast animal pose estimation using deep neural networks. Nature Methods. 16 (1), 117-125 (2019).
  25. Graving, J. M., et al. DeepPoseKit, a software toolkit for fast and robust animal pose estimation using deep learning. Elife. 8 (47994), (2019).
  26. Geuther, B. Q., et al. Robust mouse tracking in complex environments using neural networks. Communications Biology. 2 (124), (2019).
check_url/cn/61409?article_type=t

Play Video

Cite This Article
Clemensson, E. K. H., Abbaszadeh, M., Fanni, S., Espa, E., Cenci, M. A. Tracking Rats in Operant Conditioning Chambers Using a Versatile Homemade Video Camera and DeepLabCut. J. Vis. Exp. (160), e61409, doi:10.3791/61409 (2020).

View Video