Summary

Explorando el uso de expresiones aisladas y clips de películas para evaluar Emoción El reconocimiento por las personas con lesión cerebral traumática

Published: May 15, 2016
doi:

Summary

Este documento describe cómo implementar una serie de tareas para examinar la conducta de reconocimiento de emociones faciales y vocales aisladas expresiones de emoción, y una novela de tareas utilizando clips de comerciales de televisión y cine para evaluar el reconocimiento de emociones multimodal que incluye claves contextuales.

Abstract

El actual estudio presenta 60 personas con una lesión cerebral traumática (TBI) y 60 controles con aisladas expresiones faciales de emoción, aislados vocales expresiones de emoción, y multimodal (es decir., Fragmentos de películas) que incluían estímulos claves contextuales. Todos los estímulos se presentaron a través del ordenador. Los participantes tenían que indicar cómo la persona en cada estímulo se sentía utilizando un formato de elección forzada. Además, para los clips de película, los participantes tenían que indicar cómo se sentían en respuesta al estímulo, y el nivel de intensidad con la que experimentaron esa emoción.

Introduction

La lesión cerebral traumática (TBI) afecta a aproximadamente 10 millones de personas cada año en todo el mundo 1. Después de TBI, la capacidad de reconocer las emociones en otras personas que utilizan señales no verbales, tales como expresiones faciales y vocales (es decir., El tono de voz), y señales contextuales, se ven comprometidas significativamente 2-7. Desde exitosas interacciones interpersonales y relaciones de calidad son al menos parcialmente dependiente de la correcta interpretación de las emociones de otros 7-10, no es de extrañar que la dificultad con el reconocimiento de la emoción se ha informado de contribuir a los resultados sociales pobres comúnmente reportados después de TBI 3,8, 11,12.

Los estudios que investigan el reconocimiento de emociones por las personas con lesión cerebral traumática han tendido a concentrarse en las señales aisladas, en particular el reconocimiento de expresiones faciales de emoción utilizando fotografías estáticas 2. Si bien este trabajo ha sido importante para informar el desarrollo de pro tratamientogramos, que no representa adecuadamente la capacidad para reconocer e interpretar las señales no verbales de la emoción en las interacciones cotidianas. No sólo imágenes estáticas proporcionan mayor tiempo para interpretar la emoción retratado, también típicamente sólo representan el vértice (es decir., La representación máxima) de las expresiones 13-16. Además, las imágenes estáticas carecen de las claves temporales que se producen con el movimiento 12,13,15, y no son representativos de los rápidos cambios de las expresiones faciales de la emoción se encuentran en situaciones cotidianas. Además, no hay evidencia que indique que las expresiones visuales estáticas y dinámicas se procesan en diferentes áreas del cerebro, con respuestas más precisas a los estímulos dinámico 17-24.

reconocimiento de la emoción vocal por las personas con TBI también se ha estudiado, con y sin contenido verbal significativa. Se ha sugerido que la presencia de contenido verbal aumenta exigencias perceptivas PORQUE inte precisarpretation requiere procesamiento simultáneo del tono no verbal de voz con el contenido semántico incluido en el mensaje verbal 25. Aunque muchos estudios han demostrado mejorar el reconocimiento de voz afectar en ausencia de contenido verbal significativo, Dimoska et al. 25 no encontró ninguna diferencia en el rendimiento. Ellos argumentan que las personas con lesión cerebral traumática tienen un sesgo hacia el contenido semántico de frases afectivas; por lo que incluso cuando el contenido es semánticamente neutro o eliminado, que siguen centrándose en la información verbal en la oración. Por lo tanto, sus resultados no muestran claramente si el contenido verbal significativa ayuda u obstaculiza emoción expresión vocal.

Además del contenido verbal significativo que puede acompañar a las señales vocales no verbales, el contexto también se proporciona a través de la propia situación social. contexto situacional proporciona información general acerca de las circunstancias en que se produjo la expresión emoción y puede por lo tanto en gran medida enFluencia a la interpretación de la expresión. Al evaluar cómo alguien se siente, se utiliza el contexto para determinar si la situación es consistente con los deseos y expectativas de esa persona. Esto afecta en última instancia cómo alguien se siente, por lo que el conocimiento del contexto situacional debe dar lugar a la inferencia más precisa de las emociones de los demás 26. La capacidad de hacer esto se conoce como teoría de la mente, un constructo encontrado que hay impedimento significativamente después de TBI 6,27-31. Milders et al. 8,31 informan que las personas con lesión cerebral traumática tienen importantes dificultades para hacer juicios exactos y entender las intenciones y sentimientos de los personajes de historias breves.

Si bien estos estudios han puesto de manifiesto deficiencias en el procesamiento de las emociones no verbal y situacional, es difícil generalizar los resultados a las interacciones sociales cotidianas donde estas señales se producen uno junto al otro y dentro de un contexto social. Para entender mejor cómo las personascon TCE interpretar la emoción en las interacciones sociales cotidianas, tenemos que utilizar estímulos que son de naturaleza multimodal. Sólo dos estudios anteriores han incluido estímulos multimodales como parte de su investigación sobre cómo las personas con TBI señales proceso de emoción. McDonald y Saunders y Williams 15 y 16 de madera extraídos estímulos de la Emoción Prueba de evaluación (EET), que es parte de la conciencia de inferencia social de prueba 26. La EET consiste en viñetas grabadas en vídeo que muestran los actores masculinos y femeninos que retratan las señales no verbales emoción mientras que la participación en la conversación. El contenido verbal en las conversaciones es semánticamente neutro; señales con respecto a cómo los actores se sienten y la información contextual no se proporcionan. Por lo tanto, la necesidad de procesar e integrar contenido verbal significativa, mientras que al mismo tiempo haciendo esto con las señales faciales y vocales no verbales fue eliminado. Los resultados de estos estudios indican que las personas con lesión cerebral traumática eran significativos llevadostly menos preciso que los controles en su capacidad para identificar la emoción de estímulos multimodales. Dado que ni el estudio consideró la influencia de la información semántica o contextual en la interpretación de las expresiones de la emoción, no queda claro si la adición de este tipo de información facilitaría el procesamiento debido al aumento de la redundancia intersensorial o afectar negativamente la percepción debido al aumento de las demandas cognitivas.

En este artículo se describe un conjunto de tareas que se utilizan para comparar la percepción de las señales emocionales faciales y vocales de forma aislada, y la percepción de estas señales que ocurren simultáneamente dentro del contexto situacional significativa. Las tareas aislamientos son parte de una prueba mayor de reconocimiento de emociones no verbal – El análisis de diagnóstico de Precisión 2 no verbal (DANVA2) 32. En este protocolo, se utilizaron las caras adultas (DANVA-Faces) y Paralenguaje Adultos (DANVA-Voces) subpruebas. Cada una de estas subpruebas incluye 24 estímulos,que representa seis representaciones cada una de las emociones feliz, triste, enojado, y temerosos. El DANVA2 requiere que los participantes identificar la emoción retratado utilizando un formato de elección forzosa (4 opciones). A continuación, se proporciona una quinta opción (no sé) tanto para las subpruebas. La cantidad de tiempo que se muestra cada expresión facial se aumentó de dos a cinco segundos segundos para asegurarse de que estábamos evaluando afecta reconocimiento y no la velocidad de procesamiento. Nosotros no alteró la subprueba de adultos paralenguaje más allá de la adición de la opción adicional en el formato de respuesta de elección forzada. Los participantes escucharon cada frase sólo una vez. La retroalimentación no fue proporcionada, ya sea en la tarea.

fragmentos de películas se utilizaron para evaluar la percepción de las señales emocionales faciales y vocales que ocurren simultáneamente dentro del contexto situacional. Mientras que el contenido verbal dentro de estos clips no indicaba lo que sentían los personajes de los clips, que era significativo para el contexto situacional. Quince clips extraídos de commercial películas y series de televisión fueron incluidos en el estudio, cada uno entre 45 y 103 (media = 71.87) segundos. La retroalimentación no se proporcionó a los participantes durante esta tarea. Había tres clips que representan a cada una de las siguientes categorías de emociones: feliz, triste, enojado, temeroso, neutral. Estos clips fueron elegidos en base a los resultados de un estudio realizado con jóvenes adultos (n = 70) Zupan, B. & Babbage, DR estímulos Emoción de obtención de los clips de película y un texto narrativo. Manuscrito presentado a J Soc Psic. En ese estudio, los participantes se les presentaron seis fragmentos de películas para cada una de las categorías de emociones objetivo, y seis fragmentos de películas neutras, que van desde 24 a 127 segundos (media = 77,3 segundos). Si bien el objetivo era incluir fragmentos de películas relativamente cortos, cada clip elegido para su inclusión necesario para tener suficiente información contextual que pueda ser entendida por los espectadores sin tener conocimiento adicional de la película de la que se tomó 33.

<p class = "jove_content"> Los clips seleccionados para el estudio actual se habían identificado correctamente en la emoción estudio estímulos de obtención Zupan y Babbage de los clips de película y un texto narrativo, antes citada como la emoción de destino entre el 83 y el 89% de feliz, el 86 – 93 % para el triste, el 63 – 93% de enojado, el 77 – 96% para el miedo, y el 81 – 87% para el neutro. Si bien tener el mismo número de ejemplares de cada categoría de la emoción como fue en las tareas DANVA2 (n = 6) habría sido ideal, optamos por sólo tres debido a la mayor duración de los estímulos de clip de película en comparación con los estímulos en las DANVA-Faces y las tareas DANVA-Voces.

Los datos de estas tareas se obtuvieron de 60 participantes con TCE y 60 años de edad y el sexo controles pareados. Los participantes fueron vistos de forma individual o en grupos pequeños (max = 3) y el orden de las tres tareas se asignaron al azar a través de las sesiones de prueba.

Protocol

Este protocolo fue aprobado por las juntas de revisión institucional de la Universidad de Brock y en Carolinas Rehabilitación. 1. Antes de la Prueba Crear 3 listas separadas para los 15 fragmentos de películas, cada una lista de los clips en un orden diferente restringido. Asegúrese de que cada lista comienza y termina con un estímulo neutro y que no hay dos clips que se dirigen a la misma emoción de manera consecutiva. Crear una carpeta independiente en …

Representative Results

Esta batería tarea se utilizó para comparar el reconocimiento de emociones para la emoción expresiones aisladas (es decir, cara solamente;. De sólo voz) y expresiones de emoción combinados (. Es decir, la cara y la voz) que se producen dentro de un contexto situacional. Un total de 60 (37 hombres y 23 mujeres) de los participantes con TCE moderado o grave entre las edades de 21 y 63 años (media = 40.98) y 60 (38 hombres y 22 mujeres) de edad -matched controles (ra…

Discussion

El manuscrito describe tres tareas que se utilizan para evaluar las capacidades de reconocimiento de la emoción de las personas con lesión cerebral traumática. El objetivo del método descrito fue comparar la precisión de respuesta para las señales emocionales faciales y vocales de manera aislada, a la percepción de estas señales que ocurren simultáneamente dentro del contexto situacional significativa. fragmentos de películas se incluyeron en el estudio actual, ya que su aproximación de las situaciones cotidi…

Disclosures

The authors have nothing to disclose.

Acknowledgements

This work was supported by the Humanities Research Institute at Brock University in St. Catharines, Ontario, Canada and by the Cannon Research Center at Carolinas Rehabilitation in Charlotte, North Carolina, USA.

Materials

Diagnostic Analysis of Nonverbal Accuracy-2 Department of Pychology, Emory University. Atlanta, GA DANVA-Faces subtest, DANVA-Voices subtest
Computer Apple iMac Desktop, 27" display
Statistical Analysis Software SPSS University Licensed software for data analysis
Happy Film Clip 1 Sweet Home Alabama, D&D Films, 2002, Director: A Tennant A man surprises his girlfriend by proposing in a jewelry store
Happy Film Clip 2 Wedding Crashers, New Line Cinema, 2005, Director: D. Dobkin A couple is sitting on the beach and flirting while playing a hand game
Happy Film Clip 3 Reme-mber the Titans, Jerry Bruckheimer Films, 2000, Director: B. Yakin An African American football coach and his family are accepted by their community when the school team wins the football championship
Sad Film Clip 1 Grey's Anatomy, ABC, 2006, Director: P. Horton A father is only able to communicate with his family using his eyes. 
Sad Film Clip 2 Armageddon, Touchstone Pictures, 1998, Director: M. Bay A daughter is saying goodbye to her father who is in space on a dangerous mission
Sad Film Clip 3 Grey's Anatomy, ABC, 2006, Director: M. Tinker A woman is heartbroken her fiance has died
Angry Film Clip 1 Anne of Green Gables, Canadian Broadcast Corporation, 1985, Director: K. Sullivan An older woman speaks openly about a child's physical appearance in front of her
Angry Film Clip 2 Enough, Columbia Pictures, 2002, Director: M. Apted A wife confronts her husband about an affair when she smells another woman's perfume on his clothing
Angry Film Clip 3 Pretty Woman, Touchstone Pictures, 1990, Director: G. Marshall A call girl attempts to purchase clothing in an expensive boutique and is turned away
Fearful Film Clip 1 Blood Diamond, Warner Bros Pictures, 2006, Director: E. Zwick Numerous vehicles carrying militia approach a man and his son while they are out walking
Fearful Film Clip 2 The Life Before Her Eyes, 2929 Productions, 2007, Directors: V. Perelman Two teenaged gilrs are talking in the school bathroom when they hear gunshots that continue to get closer
Fearful Film Clip 3 The Sixth Sense, Barry Mendel Productions, 1999, Director: M. N. Shyamalan A young boy enters the kitchen in the middle of the night and finds his mother behaving very atypically
Neutral Film Clip 1 The Other Sister, Mandeville Films, 1999, Director: G. Marshall A mother and daughter are discussing an art book while sitting in their living room
Neutral Film Clip 2 The Game, Polygram Filmed Entertainment, 1999, Director: D. Fincher One gentleman is explaining the rules of a game to another
Neutral Film Clip 3 The Notebook, New Line Cinema, 2004, Director: N. Cassavetes An older gentleman and his doctor are conversing during a routine check-up

References

  1. Langlois, J., Rutland-Brown, W., Wald, M. The epidemiology and impact of traumatic brain injury: A brief overview. J. Head Trauma Rehabil. 21 (5), 375-378 (2006).
  2. Babbage, D. R., Yim, J., Zupan, B., Neumann, D., Tomita, M. R., Willer, B. Meta-analysis of facial affect recognition difficulties after traumatic brain injury. Neuropsychology. 25 (3), 277-285 (2011).
  3. Neumann, D., Zupan, B., Tomita, M., Willer, B. Training emotional processing in persons with brain injury. J. Head Trauma Rehabil. 24, 313-323 (2009).
  4. Bornhofen, C., McDonald, S. Treating deficits in emotion perception following traumatic brain injury. Neuropsychol Rehabil. 18 (1), 22-44 (2008).
  5. Zupan, B., Neumann, D., Babbage, D. R., Willer, B. The importance of vocal affect to bimodal processing of emotion: implications for individuals with traumatic brain injury. J Commun Disord. 42 (1), 1-17 (2009).
  6. Bibby, H., McDonald, S. Theory of mind after traumatic brain injury. Neuropsychologia. 43 (1), 99-114 (2005).
  7. Ferstl, E. C., Rinck, M., von Cramon, D. Y. Emotional and temporal aspects of situation model processing during text comprehension: an event-related fMRI study. J. Cogn. Neurosci. 17 (5), 724-739 (2005).
  8. Milders, M., Fuchs, S., Crawford, J. R. Neuropsychological impairments and changes in emotional and social behaviour following severe traumatic brain injury. J. Clin. Exp. Neuropsychol. 25 (2), 157-172 (2003).
  9. Spikman, J., Milders, M., Visser-Keizer, A., Westerhof-Evers, H., Herben-Dekker, M., van der Naalt, J. Deficits in facial emotion recognition indicate behavioral changes and impaired self-awareness after moderate to severe tramatic brain injury. PloS One. 8 (6), e65581 (2013).
  10. Zupan, B., Neumann, D. Affect Recognition in Traumatic Brain Injury: Responses to Unimodal and Multimodal Media. J. Head Trauma Rehabil. 29 (4), E1-E12 (2013).
  11. Radice-Neumann, D., Zupan, B., Babbage, D. R., Willer, B. Overview of impaired facial affect recognition in persons with traumatic brain injury. Brain Inj. 21 (8), 807-816 (2007).
  12. McDonald, S. Are You Crying or Laughing? Emotion Recognition Deficits After Severe Traumatic Brain Injury. Brain Impair. 6 (01), 56-67 (2005).
  13. Cunningham, D. W., Wallraven, C. Dynamic information for the recognition of conversational expressions. J. Vis. 9 (13), 1-17 (2009).
  14. Elfenbein, H. A., Marsh, A. A., Ambady, W. I. N. Emotional Intelligence and the Recognition of Emotion from Facid Expressions. The Wisdom in Feeling: Psychological Processes in Emotional Intelligence. , 37-59 (2002).
  15. McDonald, S., Saunders, J. C. Differential impairment in recognition of emotion across different media in people with severe traumatic brain injury. J. Int Neuropsycho. Soc. : JINS. 11 (4), 392-399 (2005).
  16. Williams, C., Wood, R. L. Impairment in the recognition of emotion across different media following traumatic brain injury. J. Clin. Exp. Neuropsychol. 32 (2), 113-122 (2010).
  17. Adolphs, R., Tranel, D., Damasio, A. R. Dissociable neural systems for recognizing emotions. Brain Cogn. 52 (1), 61-69 (2003).
  18. Biele, C., Grabowska, A. Sex differences in perception of emotion intensity in dynamic and static facial expressions. Exp. Brain Res. 171, 1-6 (2006).
  19. Collignon, O., Girard, S., et al. Audio-visual integration of emotion expression. Brain Res. 1242, 126-135 (2008).
  20. LaBar, K. S., Crupain, M. J., Voyvodic, J. T., McCarthy, G. Dynamic perception of facial affect and identity in the human brain. Cereb. Cortex. 13 (10), 1023-1033 (2003).
  21. Mayes, A. K., Pipingas, A., Silberstein, R. B., Johnston, P. Steady state visually evoked potential correlates of static and dynamic emotional face processing. Brain Topogr. 22 (3), 145-157 (2009).
  22. Sato, W., Yoshikawa, S. Enhanced Experience of Emotional Arousal in Response to Dynamic Facial Expressions. J. Nonverbal Behav. 31 (2), 119-135 (2007).
  23. Schulz, J., Pilz, K. S. Natural facial motion enhances cortical responses to faces. Exp. Brain Res. 194 (3), 465-475 (2009).
  24. O’Toole, A., Roark, D., Abdi, H. Recognizing moving faces: A psychological and neural synthesis. Trends Cogn. Sci. 6 (6), 261-266 (2002).
  25. Dimoska, A., McDonald, S., Pell, M. C., Tate, R. L., James, C. M. Recognizing vocal expressions of emotion in patients with social skills deficits following traumatic brain injury. J. Int. Neuropsyco. Soc.: JINS. 16 (2), 369-382 (2010).
  26. McDonald, S., Flanagan, S., Rollins, J., Kinch, J. TASIT: A new clinical tool for assessing social perception after traumatic brain injury. J. Head Trauma Rehab. 18 (3), 219-238 (2003).
  27. Channon, S., Pellijeff, A., Rule, A. Social cognition after head injury: sarcasm and theory of mind. Brain Lang. 93 (2), 123-134 (2005).
  28. Henry, J. D., Phillips, L. H., Crawford, J. R., Theodorou, G., Summers, F. Cognitive and psychosocial correlates of alexithymia following traumatic brain injury. Neuropsychologia. 44 (1), 62-72 (2006).
  29. Martìn-Rodrìguez, J. F., Leòn-Carriòn, J. Theory of mind deficits in patients with acquired brain injury: a quantitative review. Neuropsychologia. 48 (5), 1181-1191 (2010).
  30. McDonald, S., Flanagan, S. Social perception deficits after traumatic brain injury: interaction between emotion recognition, mentalizing ability, and social communication. Neuropsychology. 18 (3), 572-579 (2004).
  31. Milders, M., Ietswaart, M., Crawford, J. R., Currie, D. Impairments in theory of mind shortly after traumatic brain injury and at 1-year follow-up. Neuropsychology. 20 (4), 400-408 (2006).
  32. Nowicki, S. . The Manual for the Receptive Tests of the Diagnostic Analysis of Nonverbal Accuracy 2 (DANVA2). , (2008).
  33. Gross, J. J., Levenson, R. W. Emotion Elicitation Using Films. Cogn. Emot. 9 (1), 87-108 (1995).
  34. Spell, L. A., Frank, E. Recognition of Nonverbal Communication of Affect Following Traumatic Brain Injury. J. Nonverbal Behav. 24 (4), 285-300 (2000).
  35. Edgar, C., McRorie, M., Sneddon, I. Emotional intelligence, personality and the decoding of non-verbal expressions of emotion. Pers. Ind. Dif. 52, 295-300 (2012).
  36. Nowicki, S., Mitchell, J. Accuracy in Identifying Affect in Child and Adult Faces and Voices and Social Competence in Preschool Children. Genet. Soc. Gen. Psychol. 124 (1), (1998).
  37. Astesano, C., Besson, M., Alter, K. Brain potentials during semantic and prosodic processing in French. Cogn. Brain Res. 18, 172-184 (2004).
  38. Kotz, S. A., Paulmann, S. When emotional prosody and semantics dance cheek to cheek: ERP evidence. Brain Res. 115, 107-118 (2007).
  39. Paulmann, S., Pell, M. D., Kotz, S. How aging affects the recognition of emotional speech. Brain Lang. 104 (3), 262-269 (2008).
  40. Pell, M. D., Jaywant, A., Monetta, L., Kotz, S. A. Emotional speech processing: disentangling the effects of prosody and semantic cues. Cogn. Emot. 25 (5), 834-853 (2011).
  41. Bänziger, T., Scherer, K. R. Using Actor Portrayals to Systematically Study Multimodal Emotion Expression: The GEMEP Corpus. Affective Computing and Intelligent Interaction, LNCS 4738. , 476-487 (2007).
  42. Busselle, R., Bilandzic, H. Fictionality and Perceived Realism in Experiencing Stories: A Model of Narrative Comprehension and Engagement. Commun. Theory. 18 (2), 255-280 (2008).
  43. Zagalo, N., Barker, A., Branco, V. Story reaction structures to emotion detection. Proceedings of the 1st ACM Work. Story Represent. Mech. Context – SRMC. 04, 33-38 (2004).
  44. Hagemann, D., Naumann, E., Maier, S., Becker, G., Lurken, A., Bartussek, D. The Assessment of Affective Reactivity Using Films: Validity, Reliability and Sex Differences. Pers. Ind. Dif. 26, 627-639 (1999).
  45. Hewig, J., Hagemann, D., Seifert, J., Gollwitzer, M., Naumann, E., Bartussek, D. Brief Report. A revised film set for the induction of basic emotions. Cogn. Emot. 19 (7), 1095-1109 (2005).
  46. Wranik, T., Scherer, K. R. Why Do I Get Angry? A Componential Appraisal Approach. International Handbook of Anger. , 243-266 (2010).
  47. Neumann, D., Zupan, B., Malec, J. F., Hammond, F. M. Relationships between alexithymia, affect recognition, and empathy after traumatic brain injury. J. Head Trauma Rehabil. 29 (1), E18-E27 (2013).
  48. Russell, J. A. Is there universal recognition of emotion from facial expression? A review of the cross-cultural studies. Psychol. Bull. 115 (1), 102-141 (1994).
check_url/kr/53774?article_type=t

Play Video

Cite This Article
Zupan, B., Neumann, D. Exploring the Use of Isolated Expressions and Film Clips to Evaluate Emotion Recognition by People with Traumatic Brain Injury. J. Vis. Exp. (111), e53774, doi:10.3791/53774 (2016).

View Video