Summary

Potenciales evocados somatosensoriales de piel Stretch Estimulación Orofacial

Published: December 18, 2015
doi:

Summary

This paper introduces a method for obtaining somatosensory event-related potentials following orofacial skin stretch stimulation. The current method can be used to evaluate the contribution of somatosensory afferents to both speech production and speech perception.

Abstract

Cortical processing associated with orofacial somatosensory function in speech has received limited experimental attention due to the difficulty of providing precise and controlled stimulation. This article introduces a technique for recording somatosensory event-related potentials (ERP) that uses a novel mechanical stimulation method involving skin deformation using a robotic device. Controlled deformation of the facial skin is used to modulate kinesthetic inputs through excitation of cutaneous mechanoreceptors. By combining somatosensory stimulation with electroencephalographic recording, somatosensory evoked responses can be successfully measured at the level of the cortex. Somatosensory stimulation can be combined with the stimulation of other sensory modalities to assess multisensory interactions. For speech, orofacial stimulation is combined with speech sound stimulation to assess the contribution of multi-sensory processing including the effects of timing differences. The ability to precisely control orofacial somatosensory stimulation during speech perception and speech production with ERP recording is an important tool that provides new insight into the neural organization and neural representations for speech.

Introduction

La producción del habla depende tanto de la información auditiva y somatosensorial. El auditiva y retroalimentación somatosensorial ocurren en combinación desde las primeras vocalizaciones producidas por un bebé y ambos están implicados en el aprendizaje motor del habla. Los resultados recientes sugieren que los procesos somatosensoriales contribuyen a la percepción, así como de producción. Por ejemplo, la identificación de los sonidos del habla se altera cuando un dispositivo robótico estira la piel facial como participantes escuchan a los estímulos auditivos 1. Bocanadas de aire a la mejilla que coinciden con los estímulos del habla auditivas alteran juicios perceptivos 2 participantes.

Estos efectos somatosensoriales implican la activación de los mecanorreceptores cutáneos en respuesta a la deformación de la piel. La piel se deforma de varias maneras durante el movimiento, y los mecanorreceptores cutáneos se sabe que contribuyen a 3,4 sentido cinestésico. El papel cinestésica de mecanorreceptores cutáneos es demoniotrado por los recientes hallazgos 5-7 que las cepas de la piel relacionadas con el movimiento se perciben apropiadamente como la flexión o movimiento de extensión en función del patrón de estiramiento de la piel 6. En el transcurso de la capacitación motor del habla, que es la repetición de emisión de habla específico con el habla de estiramiento de la piel facial concomitante, los patrones articulatorios cambian de manera adaptativa 7. Estos estudios indican que la modulación de estiramiento de la piel durante la acción proporciona un método para evaluar la contribución de los aferentes cutáneos a la función cinestésica del sistema sensoriomotor.

La función cinestésica de mecanorreceptores cutáneos orofaciales se ha estudiado sobre todo utilizando métodos psicofisiológicos 7,8 y microelectrodos recodificación de los nervios sensoriales 9,10. Aquí, el protocolo actual se centra en la combinación de la estimulación somatosensorial orofacial asociado con deformación de la piel facial y el potencial (ERP) de grabación de eventos relacionados. Thes el procedimiento tiene control experimental preciso sobre la dirección y el momento de deformación de la piel facial utilizando un dispositivo robótico controlado por ordenador. Esto nos permite probar hipótesis específicas sobre la contribución somatosensorial de la producción del habla y la percepción de forma selectiva y precisa deformar la piel del rostro en una amplia gama de orientaciones, tanto durante el aprendizaje motor del habla y directamente en la producción del habla y la percepción. Grabación de ERP se utilizan para evaluar de forma no invasiva el patrón temporal y el momento de la influencia de la estimulación somatosensorial en los comportamientos orofaciales. El protocolo actual puede entonces evaluar los correlatos neurales de la función cinestésica y evaluar la contribución del sistema somatosensorial tanto a la percepción de procesamiento de voz, la producción del habla y el lenguaje.

Para mostrar la utilidad de la aplicación de la estimulación estiramiento de la piel a la grabación ERP, el siguiente protocolo se centra en la interacción de somatosensorial y auditiva en el habla de entrada perception. Los resultados ponen de manifiesto un posible método para evaluar la interacción somatosensorial auditiva en el habla.

Protocol

El protocolo experimental actual sigue las pautas de conducta ética de acuerdo con el Comité de Investigación Humana de la Universidad de Yale. 1. Electroenchephalopgaphy (EEG) Preparación Medir el tamaño de la cabeza para determinar la tapa de EEG apropiado. Identificar la ubicación del vértice al encontrar el punto medio entre nasión y inion con una cinta métrica. Coloque la tapa de EEG en la cabeza usando el vértice predeterminado como Cz. Examine Cz de nuevo después …

Representative Results

En esta sección se presenta potenciales relacionados con eventos de representación en respuesta a la estimulación somatosensorial resultante de la deformación de la piel facial. La configuración experimental se representa en la Figura 1. Sinusoidal estimulación se aplicó a la piel de la cara lateral al ángulo oral (Véase la Figura 3A como referencia). Se registraron un centenar de ensayos de estiramiento para ca…

Discussion

Los estudios reportados aquí proporcionan evidencia de que la estimulación somatosensorial controlada con precisión que se produce por deformación de la piel facial induce ERPs corticales. Aferentes cutáneos son conocidos como una rica fuente de información cinestésica 3,4 en movimiento de las extremidades humanas 5,6 y el habla movimiento 7,8,21. El estiramiento de la piel facial de una manera que refleje la dirección de movimiento real durante el habla induce un sentido cinest?…

Declarações

The authors have nothing to disclose.

Acknowledgements

Este trabajo fue apoyado por el Instituto Nacional de la Sordera y Otros Trastornos de la Comunicación Subvenciones R21DC013915 y R01DC012502, las Ciencias Naturales e Ingeniería de Investigación de Canadá y el Consejo Europeo de Investigación dentro del Séptimo Programa Marco de la Comunidad Europea (FP7 / 2.007-2.013 Acuerdo de subvención no. 339152 ).

Materials

EEG recording system Biosemi ActiveTwo
Robotic decice for skin stretch Geomagic Phantom Premium 1.0
EEG-compatible earphones Etymotic research ER3A
Software for visual and auditory stimulation Neurobehavioral Systems Presentation
Electrode gel Parker Laboratories, INC Signa gel
Double sided tape 3M 1522
Disposable syringe Monoject 412 Curved Tip
Analog input device National Instuments  PCI-6036E
Degital output device Measurement computing USB-1208FS

Referências

  1. Ito, T., Tiede, M., Ostry, D. J. Somatosensory function in speech perception. Proc Natl Acad Sci U S A. 106, 1245-1248 (2009).
  2. Gick, B., Derrick, D. Aero-tactile integration in speech perception. Nature. 462, 502-504 (2009).
  3. McCloskey, D. I. Kinesthetic sensibility. Physiol Rev. 58, 763-820 (1978).
  4. Proske, U., Gandevia, S. C. The kinaesthetic senses. J Physiol. 587, 4139-4146 (2009).
  5. Collins, D. F., Prochazka, A. Movement illusions evoked by ensemble cutaneous input from the dorsum of the human hand. J Physiol. 496 (Pt 3), 857-871 (1996).
  6. Edin, B. B., Johansson, N. Skin strain patterns provide kinaesthetic information to the human central nervous system. J Physiol. 487 (Pt 1), 243-251 (1995).
  7. Ito, T., Ostry, D. J. Somatosensory contribution to motor learning due to facial skin deformation. J Neurophysiol. 104, 1230-1238 (2010).
  8. Connor, N. P., Abbs, J. H. Movement-related skin strain associated with goal-oriented lip actions. Exp Brain Res. 123, 235-241 (1998).
  9. Johansson, R. S., Trulsson, M., Olsson, K. Â., Abbs, J. H. Mechanoreceptive afferent activity in the infraorbital nerve in man during speech and chewing movements. Exp Brain Res. 72, 209-214 (1988).
  10. Nordin, M., Hagbarth, K.-E. Mechanoreceptive units in the human infra-orbital nerve. Acta Physiol Scand. 135, 149-161 (1989).
  11. Guideline thirteen: guidelines for standard electrode position nomenclature. American Electroencephalographic Society. Journal of clinical neurophysiology : official publication of the American Electroencephalographic Society. 11, 111-113 (1994).
  12. Ito, T., Gracco, V. L., Ostry, D. J. Temporal factors affecting somatosensory-auditory interactions in speech processing. Frontiers in psychology. 5, 1198 (2014).
  13. Ito, T., Johns, A. R., Ostry, D. J. Left lateralized enhancement of orofacial somatosensory processing due to speech sounds. J Speech Lang Hear Res. 56, S1875-1881 (2013).
  14. Ito, T., Ostry, D. J. Speech sounds alter facial skin sensation. J Neurophysiol. 107, 442-447 (2012).
  15. Kenton, B. et al. Peripheral fiber correlates to noxious thermal stimulation in humans. Neuroscience letters. 17, 301-306 (1980).
  16. Larson, C. R., Folkins, J. W., McClean, M. D., Muller, E. M. Sensitivity of the human perioral reflex to parameters of mechanical stretch. Brain Res. 146, 159-164 (1978).
  17. Möttönen, R. Järveläinen, J. Sams, M., Hari, R. Viewing speech modulates activity in the left SI mouth cortex. Neuroimage. 24, 731-737 (2005).
  18. Soustiel, J. F., Feinsod, M., Hafner, H. Short latency trigeminal evoked potentials: normative data and clinical correlations. Electroencephalogr Clin Neurophysiol. 80, 119-125 (1991).
  19. Martin, B. A., Tremblay, K. L., Korczak, P. Speech evoked potentials: from the laboratory to the clinic. Ear and hearing. 29, 285-313 (2008).
  20. Perrin, F., Bertrand, O., Pernier, J. Scalp current density mapping: value and estimation from potential data. IEEE Trans Biomed Eng. 34, 283-288 (1987).
  21. Ito, T., Gomi, H. Cutaneous mechanoreceptors contribute to the generation of a cortical reflex in speech. Neuroreport. 18, 907-910 (2007).
  22. Onton, J., Westerfield, M., Townsend, J., Makeig, S. Imaging human EEG dynamics using independent component analysis. Neurosci Biobehav Rev. 30, 808-822 (2006).
  23. Larsson, L. E., Prevec, T. S. Somato-sensory response to mechanical stimulation as recorded in the human EEG. Electroencephalogr Clin Neurophysiol. 28, 162-172 (1970).
  24. Johansson, R. S., Trulsson, M., Olsson, K. Â., Westberg, K.-G. Mechanoreceptor activity from the human face and oral mucosa. Exp Brain Res. 72, 204-208 (1988).
  25. Diehl, R. L., Lotto, A. J., Holt, L. L. Speech perception. Annu Rev Psychol. 55, 149-179 (2004).
  26. Liberman, A. M., Mattingly, I. G. The motor theory of speech perception revised. Cognition. 21, 1-36 (1985).
  27. Schwartz, J. L., Basirat, A., Menard, L., Sato, M. The Perception-for-Action-Control Theory (PACT): A perceptuo-motor theory of speech perception. J Neurolinguist. 25, 336-354 (2012).
  28. Rizzolatti, G., Craighero, L. The mirror-neuron system. Annu Rev Neurosci. 27, 169-192 (2004).
  29. Rizzolatti, G., Fabbri-Destro, M. The mirror system and its role in social cognition. Curr Opin Neurobiol. 18, 179-184 (2008).
  30. D'Ausilio, A. et al. The motor somatotopy of speech perception. Curr Biol. 19, 381-385 (2009).
  31. Fadiga, L., Craighero, L., Buccino, G., Rizzolatti, G. Speech listening specifically modulates the excitability of tongue muscles: a TMS study. Eur J Neurosci. 15, 399-402 (2002).
  32. Meister, I. G., Wilson, S. M., Deblieck, C., Wu, A. D., Iacoboni, M. The essential role of premotor cortex in speech perception. Curr Biol. 17, 1692-1696 (2007).
  33. Möttönen, R. Watkins, K. E. Motor representations of articulators contribute to categorical perception of speech sounds. J Neurosci. 29, 9819-9825 (2009).
  34. Watkins, K. E., Strafella, A. P., Paus, T. Seeing and hearing speech excites the motor system involved in speech production. Neuropsychologia. 41, 989-994 (2003).
  35. Wilson, S. M., Saygin, A. P., Sereno, M. I., Iacoboni, M. Listening to speech activates motor areas involved in speech production. Nat Neurosci. 7, 701-702 (2004).
check_url/pt/53621?article_type=t

Play Video

Citar este artigo
Ito, T., Ostry, D. J., Gracco, V. L. Somatosensory Event-related Potentials from Orofacial Skin Stretch Stimulation. J. Vis. Exp. (106), e53621, doi:10.3791/53621 (2015).

View Video