Summary

Explorer l'utilisation des expressions isolées et extraits de film Évaluer Emotion Reconnaissance par les personnes avec lésions cérébrales traumatiques

Published: May 15, 2016
doi:

Summary

Cet article décrit comment mettre en œuvre une batterie de tâches comportementales pour examiner la reconnaissance des émotions des expressions isolées émotion du visage et vocales, et une tâche nouvelle en utilisant des clips de télévision et de films commerciaux pour évaluer la reconnaissance des émotions multimodal qui inclut des indices contextuels.

Abstract

L'étude actuelle a présenté 60 personnes avec des lésions traumatiques cérébrales (TBI) et 60 contrôles avec isolés expressions d'émotions faciales, isolées expressions d'émotions vocales et multimodales (ie., Des extraits de films) stimuli qui comprenaient des indices contextuels. Tous les stimuli ont été présentés par ordinateur. Les participants devaient indiquer comment la personne dans chaque stimulus se sentait en utilisant un format à choix forcé. En outre, pour les extraits de films, les participants devaient indiquer comment ils se sentaient en réponse au stimulus, et le niveau d'intensité avec laquelle ils ont connu cette émotion.

Introduction

Lésion cérébrale traumatique (TBI) affecte environ 10 millions de personnes chaque année à travers le monde 1. Après TBI, la capacité de reconnaître l' émotion dans les autres en utilisant des indices non verbaux comme les expressions faciales et vocales (ie., Le ton de la voix), et des indices contextuels, est souvent compromise de manière significative 2-7. Depuis les interactions interpersonnelles réussies et des relations de qualité sont au moins partiellement dépendante de l' interprétation précise des émotions des autres 7-10, il est pas surprenant que la difficulté avec la reconnaissance des émotions a été rapporté à contribuer aux pauvres résultats sociaux fréquemment rapportés ci – après TBI 3,8, 11,12.

Les études portant sur ​​la reconnaissance des émotions par des personnes avec TBI ont tendance à se concentrer sur des indices isolés, en particulier la reconnaissance des expressions faciales de l' émotion à l' aide de photographies statiques 2. Bien que ce travail a été important en informant le développement du traitement programmes, il ne représente pas adéquatement sa capacité à reconnaître et à interpréter les indices non verbaux de l'émotion dans les interactions quotidiennes. Non seulement les images statiques fournissent le temps d'interpréter l'émotion dépeint augmenté, ils ont aussi généralement que dépeignent le sommet (ie., Représentation maximum) des expressions 13-16. En outre, des images statiques manquent de repères temporels qui se produisent avec le mouvement 12,13,15, et ne sont pas représentatifs des expressions faciales changent rapidement de l' émotion rencontrées dans des situations quotidiennes. En outre, il existe des preuves pour indiquer que des expressions visuelles statiques et dynamiques sont traitées dans différentes zones du cerveau, avec des réponses plus précises à des stimuli dynamiques 17-24.

reconnaissance des émotions Vocal par des personnes avec TBI a également été étudié, à la fois avec et sans contenu verbal significatif. Il a été suggéré que la présence du contenu verbal augmente parce que les exigences de perception inte préciserpretation nécessite un traitement simultané de la tonalité de la voix non verbale avec le contenu sémantique inclus dans le message verbal 25. Alors que de nombreuses études ont montré une meilleure reconnaissance des voix affecte en l'absence de contenu verbal significatif, Dimoska et al. 25 n'a trouvé aucune différence dans la performance. Ils font valoir que les personnes atteintes de TBI ont un biais vers le contenu sémantique des phrases affectives; de sorte que même lorsque le contenu est sémantiquement neutre ou éliminé, ils continuent de se concentrer sur l'information verbale dans la phrase. Ainsi, les résultats ne montrent pas clairement si le contenu verbal significatif facilite ou entrave l'expression de l'émotion vocale.

En plus du contenu verbal significatif qui peut accompagner les signaux vocaux non verbaux, le contexte est également assuré par la situation sociale elle-même. contexte situationnel fournit des informations générales sur les circonstances dans lesquelles l'expression de l'émotion a été produit et peut ainsi grandementfluence l'interprétation de l'expression. Lors de l'évaluation comment se sent quelqu'un, nous utilisons le contexte pour déterminer si la situation est compatible avec les besoins et les attentes de cette personne. Cela affecte finalement comment quelqu'un se sent, donc la connaissance du contexte de la situation devrait se traduire par inférence plus précise de l'émotion des autres 26. La capacité de le faire est appelée théorie de l' esprit, une construction jugée être altérée de façon significative après TBI 6,27-31. Milders et al. 8,31 rapport que les personnes ont de la difficulté TBI significative des jugements précis au sujet et de comprendre les intentions et les sentiments des personnages en bref des histoires.

Bien que ces études ont mis en évidence des déficits dans le traitement des émotions non verbale et de la situation, il est difficile de généraliser les résultats à des interactions sociales quotidiennes où ces indices se produisent aux côtés de l'autre et dans un contexte social. Pour mieux comprendre comment les gensavec TBI interpréter l'émotion dans les interactions sociales quotidiennes, nous avons besoin d'utiliser des stimuli qui sont multimodal dans la nature. Seules deux études précédentes ont inclus des stimuli multimodaux dans le cadre de leur enquête sur la façon dont les personnes ayant subi un TCC processus émotion indices. McDonald et Saunders 15 et Williams et Wood 16 extraits stimuli de l'émotion Test d' évaluation (EET), qui fait partie de la prise de conscience sociale Inference test 26. Le EET se compose de vignettes enregistrées sur bande vidéo qui montrent des hommes et des femmes acteurs représentant non verbales émotion des indices tout en engageant la conversation. Le contenu verbal dans les conversations est sémantiquement neutre; des indices sur la façon dont les acteurs se sentent et des informations contextuelles ne sont pas fournis. Ainsi, la nécessité de traiter et d'intégrer le contenu verbal significatif tout en faisant simultanément cela avec les indices faciaux et vocaux non verbaux a été éliminé. Les résultats de ces études ont indiqué que les personnes atteintes de TBI étaient significantly moins précis que les contrôles dans leur capacité à identifier l'émotion de stimuli multimodaux. Étant donné que ni l'étude considérée l'influence de l'information sémantique ou contextuelle sur l'interprétation des expressions de l'émotion, on ne sait pas si l'ajout de ce type d'information faciliterait le traitement en raison d'une redondance accrue intersensorielle ou négatif sur la perception en raison des exigences cognitives accrues.

Cet article décrit un ensemble de tâches utilisées pour comparer la perception des signaux émotionnels faciales et vocales dans l'isolement, et la perception de ces signaux se produisant simultanément dans le contexte de la situation significative. Les tâches de isolations font partie d'un test plus large de reconnaissance des émotions non verbale – L'analyse diagnostique de précision Nonverbal 2 (DANVA2) 32. Dans ce protocole, nous avons utilisé les visages d'adultes (DANVA-Faces) et adultes ParaLangage (DANVA-Voix) sous – tests. Chacun de ces sous-tests comprend 24 stimuli,représentant six représentations chacune des émotions heureuses, tristes, en colère, et craintifs. Le DANVA2 demande aux participants d'identifier l'émotion dépeint l'aide d'un choix forcé le format (4 choix). Ici, une cinquième option (je ne sais pas) est prévu pour les deux sous-tests. La quantité de temps chaque expression du visage a été montré a été augmentée de deux secondes à cinq secondes pour nous assurer que nous évaluions affecte la reconnaissance et non la vitesse de traitement. Nous ne modifions le subtest de paralangage adulte au-delà de l'ajout d'un choix supplémentaire dans le format de réponse à choix forcé. Les participants ont entendu chaque phrase une seule fois. Feedback n'a pas été fourni dans les deux tâches.

Des extraits de films ont été utilisés pour évaluer la perception des indices d'émotion faciales et vocales qui se produisent simultanément dans le contexte de la situation. Bien que le contenu verbal au sein de ces clips n'a pas explicitement ce que les personnages dans les clips se sentaient, il était significatif dans le contexte de la situation. Quinze clips extraits de cofilms mmercial et séries télévisées ont été inclus dans l'étude, chaque allant de 45 à 103 (moyenne = 71,87) secondes. Feedback n'a pas été fournie aux participants au cours de cette tâche. Il y avait trois clips représentant chacune des catégories d'émotion suivantes: heureux, triste, en colère, peur, neutre. Ces clips ont été choisis en fonction des résultats d'une étude menée auprès des jeunes adultes (n = 70) Zupan, B. & Babbage, DR Emotion explicitation stimuli provenant des extraits de films et texte narratif. Manuscrit soumis à J Soc Psyc. Dans cette étude, les participants ont été présentés avec six extraits de films pour chacune des catégories cible d'émotion, et six extraits de films neutres, allant de 24 à 127 secondes (moyenne = 77,3 secondes). Alors que l'objectif était d'inclure relativement courts extraits de films, chaque clip choisi pour l' inclusion nécessaire d'avoir suffisamment d' informations contextuelles qu'il pourrait être compris par les téléspectateurs sans avoir une connaissance supplémentaire du film à partir duquel elle a été prise 33.

<p class = "jove_content"> Les clips sélectionnés pour l'étude avaient été correctement identifiés dans l'étude Emotion explicitation stimuli Zupan et Babbage des clips de films et texte narratif, cité cidessus comme l'émotion cible entre 83 et 89% pour les heureux, 86-93 % pour triste, 63-93% pour colère, 77-96% pour les craintifs, et 81-87% pour le neutre. Tout en ayant le même nombre d'exemplaires de chaque catégorie d'émotion était dans les tâches de DANVA2 (n = 6) aurait été idéal, nous avons opté pour trois seulement en raison de la longueur accrue du clip stimuli du film par rapport à des stimuli dans les DANVA-Faces et les tâches DANVA-Voix.

Les données de ces tâches ont été recueillies auprès de 60 participants avec TBI et 60 ans et le sexe des contrôles appariés. Les participants ont été vus individuellement ou en petits groupes (max = 3) et l'ordre des trois tâches ont été randomisés entre les sessions de test.

Protocol

Ce protocole a été approuvé par les comités d'éthique de l'Université Brock et à Carolinas réadaptation. 1. Avant d'essais Créer 3 listes distinctes pour les 15 extraits de films, chaque liste des clips dans un ordre restreint différent. Assurez-vous que chaque liste commence et se termine par un stimulus neutre et que deux clips qui ciblent la même émotion se produisent consécutivement. Créer un dossier séparé sur le bureau pour cha…

Representative Results

Cette tâche batterie a été utilisée pour comparer la reconnaissance des émotions pour les expressions d'émotion isolées (c. -à- face seulement;. Voix seulement) et les expressions d'émotion combinées (. -À- dire, le visage et la voix) qui se produisent dans un contexte situationnel. Un total de 60 (37 hommes et 23 femmes) participants modérée à sévère TBI entre les âges de 21 et 63 ans (moyenne = 40,98) et 60 (38 hommes et 22 femmes) âge -match…

Discussion

Le manuscrit décrit trois tâches utilisées pour évaluer les capacités de reconnaissance des émotions des personnes atteintes de TBI. Le but de la méthode décrite était de comparer la précision de la réponse pour les signaux émotionnels faciales et vocales dans l'isolement, à la perception de ces signaux se produisant simultanément dans le contexte de la situation significative. Des extraits de films ont été inclus dans l'étude actuelle parce que leur rapprochement des situations de tous les jour…

Divulgazioni

The authors have nothing to disclose.

Acknowledgements

This work was supported by the Humanities Research Institute at Brock University in St. Catharines, Ontario, Canada and by the Cannon Research Center at Carolinas Rehabilitation in Charlotte, North Carolina, USA.

Materials

Diagnostic Analysis of Nonverbal Accuracy-2 Department of Pychology, Emory University. Atlanta, GA DANVA-Faces subtest, DANVA-Voices subtest
Computer Apple iMac Desktop, 27" display
Statistical Analysis Software SPSS University Licensed software for data analysis
Happy Film Clip 1 Sweet Home Alabama, D&D Films, 2002, Director: A Tennant A man surprises his girlfriend by proposing in a jewelry store
Happy Film Clip 2 Wedding Crashers, New Line Cinema, 2005, Director: D. Dobkin A couple is sitting on the beach and flirting while playing a hand game
Happy Film Clip 3 Reme-mber the Titans, Jerry Bruckheimer Films, 2000, Director: B. Yakin An African American football coach and his family are accepted by their community when the school team wins the football championship
Sad Film Clip 1 Grey's Anatomy, ABC, 2006, Director: P. Horton A father is only able to communicate with his family using his eyes. 
Sad Film Clip 2 Armageddon, Touchstone Pictures, 1998, Director: M. Bay A daughter is saying goodbye to her father who is in space on a dangerous mission
Sad Film Clip 3 Grey's Anatomy, ABC, 2006, Director: M. Tinker A woman is heartbroken her fiance has died
Angry Film Clip 1 Anne of Green Gables, Canadian Broadcast Corporation, 1985, Director: K. Sullivan An older woman speaks openly about a child's physical appearance in front of her
Angry Film Clip 2 Enough, Columbia Pictures, 2002, Director: M. Apted A wife confronts her husband about an affair when she smells another woman's perfume on his clothing
Angry Film Clip 3 Pretty Woman, Touchstone Pictures, 1990, Director: G. Marshall A call girl attempts to purchase clothing in an expensive boutique and is turned away
Fearful Film Clip 1 Blood Diamond, Warner Bros Pictures, 2006, Director: E. Zwick Numerous vehicles carrying militia approach a man and his son while they are out walking
Fearful Film Clip 2 The Life Before Her Eyes, 2929 Productions, 2007, Directors: V. Perelman Two teenaged gilrs are talking in the school bathroom when they hear gunshots that continue to get closer
Fearful Film Clip 3 The Sixth Sense, Barry Mendel Productions, 1999, Director: M. N. Shyamalan A young boy enters the kitchen in the middle of the night and finds his mother behaving very atypically
Neutral Film Clip 1 The Other Sister, Mandeville Films, 1999, Director: G. Marshall A mother and daughter are discussing an art book while sitting in their living room
Neutral Film Clip 2 The Game, Polygram Filmed Entertainment, 1999, Director: D. Fincher One gentleman is explaining the rules of a game to another
Neutral Film Clip 3 The Notebook, New Line Cinema, 2004, Director: N. Cassavetes An older gentleman and his doctor are conversing during a routine check-up

Riferimenti

  1. Langlois, J., Rutland-Brown, W., Wald, M. The epidemiology and impact of traumatic brain injury: A brief overview. J. Head Trauma Rehabil. 21 (5), 375-378 (2006).
  2. Babbage, D. R., Yim, J., Zupan, B., Neumann, D., Tomita, M. R., Willer, B. Meta-analysis of facial affect recognition difficulties after traumatic brain injury. Neuropsychology. 25 (3), 277-285 (2011).
  3. Neumann, D., Zupan, B., Tomita, M., Willer, B. Training emotional processing in persons with brain injury. J. Head Trauma Rehabil. 24, 313-323 (2009).
  4. Bornhofen, C., McDonald, S. Treating deficits in emotion perception following traumatic brain injury. Neuropsychol Rehabil. 18 (1), 22-44 (2008).
  5. Zupan, B., Neumann, D., Babbage, D. R., Willer, B. The importance of vocal affect to bimodal processing of emotion: implications for individuals with traumatic brain injury. J Commun Disord. 42 (1), 1-17 (2009).
  6. Bibby, H., McDonald, S. Theory of mind after traumatic brain injury. Neuropsychologia. 43 (1), 99-114 (2005).
  7. Ferstl, E. C., Rinck, M., von Cramon, D. Y. Emotional and temporal aspects of situation model processing during text comprehension: an event-related fMRI study. J. Cogn. Neurosci. 17 (5), 724-739 (2005).
  8. Milders, M., Fuchs, S., Crawford, J. R. Neuropsychological impairments and changes in emotional and social behaviour following severe traumatic brain injury. J. Clin. Exp. Neuropsychol. 25 (2), 157-172 (2003).
  9. Spikman, J., Milders, M., Visser-Keizer, A., Westerhof-Evers, H., Herben-Dekker, M., van der Naalt, J. Deficits in facial emotion recognition indicate behavioral changes and impaired self-awareness after moderate to severe tramatic brain injury. PloS One. 8 (6), e65581 (2013).
  10. Zupan, B., Neumann, D. Affect Recognition in Traumatic Brain Injury: Responses to Unimodal and Multimodal Media. J. Head Trauma Rehabil. 29 (4), E1-E12 (2013).
  11. Radice-Neumann, D., Zupan, B., Babbage, D. R., Willer, B. Overview of impaired facial affect recognition in persons with traumatic brain injury. Brain Inj. 21 (8), 807-816 (2007).
  12. McDonald, S. Are You Crying or Laughing? Emotion Recognition Deficits After Severe Traumatic Brain Injury. Brain Impair. 6 (01), 56-67 (2005).
  13. Cunningham, D. W., Wallraven, C. Dynamic information for the recognition of conversational expressions. J. Vis. 9 (13), 1-17 (2009).
  14. Elfenbein, H. A., Marsh, A. A., Ambady, W. I. N. Emotional Intelligence and the Recognition of Emotion from Facid Expressions. The Wisdom in Feeling: Psychological Processes in Emotional Intelligence. , 37-59 (2002).
  15. McDonald, S., Saunders, J. C. Differential impairment in recognition of emotion across different media in people with severe traumatic brain injury. J. Int Neuropsycho. Soc. : JINS. 11 (4), 392-399 (2005).
  16. Williams, C., Wood, R. L. Impairment in the recognition of emotion across different media following traumatic brain injury. J. Clin. Exp. Neuropsychol. 32 (2), 113-122 (2010).
  17. Adolphs, R., Tranel, D., Damasio, A. R. Dissociable neural systems for recognizing emotions. Brain Cogn. 52 (1), 61-69 (2003).
  18. Biele, C., Grabowska, A. Sex differences in perception of emotion intensity in dynamic and static facial expressions. Exp. Brain Res. 171, 1-6 (2006).
  19. Collignon, O., Girard, S., et al. Audio-visual integration of emotion expression. Brain Res. 1242, 126-135 (2008).
  20. LaBar, K. S., Crupain, M. J., Voyvodic, J. T., McCarthy, G. Dynamic perception of facial affect and identity in the human brain. Cereb. Cortex. 13 (10), 1023-1033 (2003).
  21. Mayes, A. K., Pipingas, A., Silberstein, R. B., Johnston, P. Steady state visually evoked potential correlates of static and dynamic emotional face processing. Brain Topogr. 22 (3), 145-157 (2009).
  22. Sato, W., Yoshikawa, S. Enhanced Experience of Emotional Arousal in Response to Dynamic Facial Expressions. J. Nonverbal Behav. 31 (2), 119-135 (2007).
  23. Schulz, J., Pilz, K. S. Natural facial motion enhances cortical responses to faces. Exp. Brain Res. 194 (3), 465-475 (2009).
  24. O’Toole, A., Roark, D., Abdi, H. Recognizing moving faces: A psychological and neural synthesis. Trends Cogn. Sci. 6 (6), 261-266 (2002).
  25. Dimoska, A., McDonald, S., Pell, M. C., Tate, R. L., James, C. M. Recognizing vocal expressions of emotion in patients with social skills deficits following traumatic brain injury. J. Int. Neuropsyco. Soc.: JINS. 16 (2), 369-382 (2010).
  26. McDonald, S., Flanagan, S., Rollins, J., Kinch, J. TASIT: A new clinical tool for assessing social perception after traumatic brain injury. J. Head Trauma Rehab. 18 (3), 219-238 (2003).
  27. Channon, S., Pellijeff, A., Rule, A. Social cognition after head injury: sarcasm and theory of mind. Brain Lang. 93 (2), 123-134 (2005).
  28. Henry, J. D., Phillips, L. H., Crawford, J. R., Theodorou, G., Summers, F. Cognitive and psychosocial correlates of alexithymia following traumatic brain injury. Neuropsychologia. 44 (1), 62-72 (2006).
  29. Martìn-Rodrìguez, J. F., Leòn-Carriòn, J. Theory of mind deficits in patients with acquired brain injury: a quantitative review. Neuropsychologia. 48 (5), 1181-1191 (2010).
  30. McDonald, S., Flanagan, S. Social perception deficits after traumatic brain injury: interaction between emotion recognition, mentalizing ability, and social communication. Neuropsychology. 18 (3), 572-579 (2004).
  31. Milders, M., Ietswaart, M., Crawford, J. R., Currie, D. Impairments in theory of mind shortly after traumatic brain injury and at 1-year follow-up. Neuropsychology. 20 (4), 400-408 (2006).
  32. Nowicki, S. . The Manual for the Receptive Tests of the Diagnostic Analysis of Nonverbal Accuracy 2 (DANVA2). , (2008).
  33. Gross, J. J., Levenson, R. W. Emotion Elicitation Using Films. Cogn. Emot. 9 (1), 87-108 (1995).
  34. Spell, L. A., Frank, E. Recognition of Nonverbal Communication of Affect Following Traumatic Brain Injury. J. Nonverbal Behav. 24 (4), 285-300 (2000).
  35. Edgar, C., McRorie, M., Sneddon, I. Emotional intelligence, personality and the decoding of non-verbal expressions of emotion. Pers. Ind. Dif. 52, 295-300 (2012).
  36. Nowicki, S., Mitchell, J. Accuracy in Identifying Affect in Child and Adult Faces and Voices and Social Competence in Preschool Children. Genet. Soc. Gen. Psychol. 124 (1), (1998).
  37. Astesano, C., Besson, M., Alter, K. Brain potentials during semantic and prosodic processing in French. Cogn. Brain Res. 18, 172-184 (2004).
  38. Kotz, S. A., Paulmann, S. When emotional prosody and semantics dance cheek to cheek: ERP evidence. Brain Res. 115, 107-118 (2007).
  39. Paulmann, S., Pell, M. D., Kotz, S. How aging affects the recognition of emotional speech. Brain Lang. 104 (3), 262-269 (2008).
  40. Pell, M. D., Jaywant, A., Monetta, L., Kotz, S. A. Emotional speech processing: disentangling the effects of prosody and semantic cues. Cogn. Emot. 25 (5), 834-853 (2011).
  41. Bänziger, T., Scherer, K. R. Using Actor Portrayals to Systematically Study Multimodal Emotion Expression: The GEMEP Corpus. Affective Computing and Intelligent Interaction, LNCS 4738. , 476-487 (2007).
  42. Busselle, R., Bilandzic, H. Fictionality and Perceived Realism in Experiencing Stories: A Model of Narrative Comprehension and Engagement. Commun. Theory. 18 (2), 255-280 (2008).
  43. Zagalo, N., Barker, A., Branco, V. Story reaction structures to emotion detection. Proceedings of the 1st ACM Work. Story Represent. Mech. Context – SRMC. 04, 33-38 (2004).
  44. Hagemann, D., Naumann, E., Maier, S., Becker, G., Lurken, A., Bartussek, D. The Assessment of Affective Reactivity Using Films: Validity, Reliability and Sex Differences. Pers. Ind. Dif. 26, 627-639 (1999).
  45. Hewig, J., Hagemann, D., Seifert, J., Gollwitzer, M., Naumann, E., Bartussek, D. Brief Report. A revised film set for the induction of basic emotions. Cogn. Emot. 19 (7), 1095-1109 (2005).
  46. Wranik, T., Scherer, K. R. Why Do I Get Angry? A Componential Appraisal Approach. International Handbook of Anger. , 243-266 (2010).
  47. Neumann, D., Zupan, B., Malec, J. F., Hammond, F. M. Relationships between alexithymia, affect recognition, and empathy after traumatic brain injury. J. Head Trauma Rehabil. 29 (1), E18-E27 (2013).
  48. Russell, J. A. Is there universal recognition of emotion from facial expression? A review of the cross-cultural studies. Psychol. Bull. 115 (1), 102-141 (1994).
check_url/it/53774?article_type=t

Play Video

Citazione di questo articolo
Zupan, B., Neumann, D. Exploring the Use of Isolated Expressions and Film Clips to Evaluate Emotion Recognition by People with Traumatic Brain Injury. J. Vis. Exp. (111), e53774, doi:10.3791/53774 (2016).

View Video