Summary

Erforschung der Verwendung isolierter Ausdrücke und Film-Clips Emotionserkennung mit Schädel-Hirn-Verletzung von Personen zur Bewertung

Published: May 15, 2016
doi:

Summary

Dieser Beitrag beschreibt, wie eine Batterie von Verhaltens Aufgaben zu implementieren Emotionserkennung von isolierten Gesichts- und Stimm Emotionen Ausdrücken zu untersuchen und eine neue Aufgabe kommerzielle Fernseh- und Filmclips mit multimodalen Emotionserkennung zu bewerten, die kontextuellen Hinweise enthält.

Abstract

Die aktuelle Studie präsentiert 60 Menschen mit traumatischen Hirnverletzungen (TBI) und 60 Kontrollen mit isolierten Gesichts Emotionen Ausdrücken, isoliert vocal Emotion Ausdrücke und multimodal (dh., Filmclips) Reize , die kontextuellen Hinweise enthalten. Alle Stimuli wurden per Computer vorgestellt. Die Teilnehmer waren erforderlich, um anzuzeigen, wie die Person in jedem Stimulus wurde das Gefühl ein Forced-Choice-Format. Zusätzlich wird für die Filmclips, hatten die Teilnehmer, um anzuzeigen, wie sie in Antwort auf den Stimulus gefühlt, und die Höhe der Intensität, mit der sie diese erfahren Emotion.

Introduction

Schädel – Hirn – Verletzung (TBI) leiden etwa 10 Millionen Menschen jedes Jahr auf der ganzen Welt ein. Im Anschluss an TBI, die Fähigkeit , Emotionen in anderen zu erkennen mit nonverbale Signale wie Gesichts- und Stimm Ausdrücke (dh., Ton der Stimme) und kontextuelle Cues wird oft deutlich 2-7 beeinträchtigt. Da eine erfolgreiche zwischenmenschliche Interaktionen und Qualität Beziehungen zumindest teilweise auf eine genaue Interpretation abhängig sind von anderen Emotionen 7-10, ist es nicht verwunderlich , dass mit Emotionserkennung Schwierigkeit der schlechten sozialen Ergebnisse berichtet worden , häufig folgende TBI 3,8 berichtet beizutragen, 11,12.

Studien Emotionserkennung von Menschen mit TBI Untersuchung haben sich auf isolierte Hinweise zu konzentrieren neigten, vor allem die Anerkennung der Gesichts Emotionen Ausdrücken mit statischen Fotografien 2. Während dieser Arbeiten können bei der Information der Entwicklung von Behandlungs pro wichtigGramm, ist es nicht ausreichend die Fähigkeit, in alltäglichen Interaktionen nonverbale Signale von Emotionen zu erkennen, darstellen und interpretieren. Nicht nur statische Bilder sorgen für mehr Zeit , um die Emotion porträtiert zu interpretieren, sie auch in der Regel schildern nur die Spitze (dh., Maximale Darstellung) der Ausdrücke 13-16. Zusätzlich statische Bilder nicht über die zeitlichen Hinweise , die mit der Bewegung auftreten 12,13,15, und sind nicht repräsentativ für die schnell in alltäglichen Situationen begegnet Mimik Emotionen zu verändern. Ferner gibt es Hinweise , um anzuzeigen , dass statische und dynamische visuelle Ausdrücke in verschiedenen Bereichen des Gehirns verarbeitet werden, genauere Antworten auf Stimuli dynamische 17-24.

Vocal Emotionserkennung von Menschen mit TBI hat auch sowohl mit als auch ohne sinnvolle verbale Inhalt untersucht worden. Es wurde vorgeschlagen, dass die Anwesenheit von verbalen Inhalt Wahrnehmungs Anforderungen, weil genaue inte erhöhtrpretation erfordert die gleichzeitige Verarbeitung der nonverbalen Tonfall mit dem semantischen Inhalt der verbalen Nachricht enthalten 25. Während viele Studien eine verbesserte Anerkennung von Gesang gezeigt haben , beeinflussen in Abwesenheit von sinnvollen verbalen Inhalt, Dimoska et al. 25 keinen Unterschied in der Leistung gefunden. Sie argumentieren, dass Menschen mit TBI haben eine Tendenz zu semantischen Gehalt in affektiven Sätze; so dass selbst wenn der Inhalt semantisch neutrale oder beseitigt ist, sie weiterhin auf die mündlichen Informationen in dem Satz zu konzentrieren. So haben ihre Ergebnisse nicht eindeutig zeigen, ob sinnvolle verbale Inhalt fördert oder behindert vocal emotionalen Ausdruck.

Neben der sinnvollen verbalen Inhalt, der die nonverbale Gesangs Cues begleiten kann, wird Kontext auch durch die soziale Situation selbst zur Verfügung gestellt. Situativen Kontext liefert Hintergrundinformationen über die Umstände, unter denen die Emotion Ausdruck erzeugt wurde, und kann somit stark ineinflussen die Interpretation des Ausdrucks. Bei der Bewertung, wie jemand fühlt, verwenden wir Kontext zu bestimmen, ob sich die Situation mit dieser Person Wünsche und Erwartungen in Einklang steht. Dies wirkt sich letztlich , wie jemand fühlt, so die Kenntnis der situativen Kontext sollte 26 Emotion 'in genauer Inferencing anderer führen. Die Fähigkeit , dies zu tun , wird als Theorie des Geistes, ein Konstrukt zu wesentlich beeinträchtigt folgenden TBI 6,27-31 gefunden. Milders et al. 8,31 Bericht , dass die Menschen mit TBI erhebliche Schwierigkeiten haben , um genaue Urteile über und das Verständnis der Absichten und Gefühle der Charaktere in kurzen Geschichten.

Während diese Studien Defizite in nonverbale und situationsEmotionsVerarbeitung hervorgehoben haben, ist es schwierig, die Ergebnisse zu alltäglichen sozialen Interaktionen, wo diese Signale auftreten, nebeneinander und im sozialen Kontext zu verallgemeinern. Um besser zu verstehen, wie Menschenmit TBI Emotion in alltäglichen sozialen Interaktionen zu interpretieren, müssen wir Stimuli zu verwenden, die in der Natur multimodal sind. Nur zwei frühere Studien haben eingeschlossen multimodale Stimuli im Rahmen ihrer Untersuchung, wie die Menschen mit TBI Prozess Emotion Cues. McDonald und Saunders 15 und Williams und Holz 16 extrahiert Reize aus der Emotion Auswerteversuch (EET), die 26 Teil , das Bewusstsein für soziale InferenceTest ist. Die EET besteht aus Video aufgezeichnet Vignetten, die männliche und weibliche Schauspieler zeigen porträtiert nonverbale Emotion Cues, während im Gespräch eingreifen. Die verbale Inhalt in den Gesprächen ist semantisch neutral; Hinweise darüber, wie die Akteure fühlen und Kontextinformationen sind nicht vorgesehen. Daher die Notwendigkeit, zu verarbeiten und sinnvolle verbale Inhalte zu integrieren und gleichzeitig diese Weise mit den nonverbalen Gesichts- und Stimm Cues eliminiert wurde. Die Ergebnisse dieser Studien zeigten, dass Menschen mit TBI waren significantly weniger genau als die Kontrollen in ihrer Fähigkeit, Emotionen aus multimodale Stimuli zu identifizieren. Da weder eine Studie der Einfluss von semantischen oder Kontextinformationen zur Interpretation von Emotionen Ausdrücken betrachtet, bleibt unklar, ob die Zugabe von dieser Art der Informationsverarbeitung wegen der erhöhten intersensorischen Redundanz erleichtern würde oder negativ wegen der erhöhten kognitiven Anforderungen beeinflussen Wahrnehmung.

Dieser Artikel beschreibt eine Reihe von Aufgaben verwendet Wahrnehmung von Gesichts- und Stimm emotionale Signale in Isolation zu vergleichen, und die Wahrnehmung dieser Signale gleichzeitig innerhalb sinnvoller situativen Kontext auftreten. Die Isolationen Aufgaben sind Teil eines größeren Test der nonverbalen Emotionserkennung – Die DiagnoseAnalyse der nonverbalen Genauigkeit 2 (DANVA2) 32. In diesem Protokoll haben wir die Erwachsenen Faces (DANVA-Faces) und Adult Parasprache (DANVA-Stimmen) Subtests. Jede dieser Untertests umfasst 24 Stimuli,zeigt sechs Darstellungen jeder glücklich, traurig, wütend und ängstlich Emotionen. Die DANVA2 erfordert Teilnehmer die Emotion porträtiert mit einem Forced-Choice-Format (4 Möglichkeiten) zu identifizieren. Hier wird eine fünfte Option (ich weiß nicht) wird für beide Subtests zur Verfügung gestellt. Die Zeitdauer jeder Gesichtsausdruck wurde von 2 Sekunden bis fünf Sekunden erhöht gezeigt, um sicherzustellen, dass wir Erkennungs beeinflussen wurden bewertet und nicht Geschwindigkeit der Verarbeitung. Wir änderte nichts an der erwachsenen Parasprache Subtest über das Hinzufügen der zusätzlichen Wahl in der Forced-Choice-Antwort-Format. Die Teilnehmer hörten jeder Satz nur einmal. Das Feedback war nicht in jeder Aufgabe zur Verfügung gestellt.

Film-Clips wurden verwendet Wahrnehmung von Gesichts- und Stimm Emotion Hinweise zu beurteilen gleichzeitig im situativen Kontext auftreten. Während die verbale Inhalte innerhalb dieser Clips nicht explizit angeben, welche die Zeichen in den Klammern Gefühl wurden, war es auf den situativen Kontext sinnvoll. Fünfzehn Clips Co extrahiertmmercial Filme und Fernsehserien wurden in die Studie aufgenommen, angefangen jeweils 45 bis 103 (Mittelwert = 71,87) Sekunden. Das Feedback war während dieser Aufgabe an die Teilnehmer zur Verfügung gestellt. Es gab drei Clips für jede der folgenden Kategorien Emotion darstellen: glücklich, traurig, wütend, ängstlich, neutral. Diese Clips wurden basierend auf den Ergebnissen einer Studie mit jungen Erwachsenen durchgeführt wurden gewählt (n = 70) , Zupan, B. & Babbage, DR Emotion elicitation Reize aus Filmclips und Erzähltext. Manuskript eingereicht J Soc Psyc. In dieser Studie wurden die Teilnehmer mit sechs Filmclips für jede der Ziel Emotion Kategorien vorgestellt und sechs neutralen Filmclips, von 24 bis 127 Sekunden (Mittelwert = 77,3 Sekunden). Während das Ziel relativ kurzen Filmclips enthalten war, die jeweils für die Aufnahme ausgewählt Clip benötigt ausreichend Kontextinformationen zu haben , dass es ohne zusätzliche Kenntnisse des Films von den Zuschauern verstanden werden könnte , von dem es 33 genommen wurde.

<p class = "jove_content"> Die Clips für die aktuelle Studie ausgewählt hatte in den Zupan und Babbage Studie Emotion elicitation Reize aus Filmclips und Erzähltext, wie oben zitiert als Ziel Emotion zwischen 83 und 89% für glücklich korrekt identifiziert wurde, 86-93 % für traurig, 63-93% für wütend, 77-96% für ängstliche, und 81-87% für neutral. Während die gleiche Anzahl von Exemplaren jeder Emotion Kategorie, wie sie in den DANVA2 Aufgaben war (n = 6) wäre ideal gewesen, entschieden wir uns wegen drei der erhöhten Länge der Filmclip Stimuli im Vergleich zu Stimuli in den DANVA-Faces für nur und DANVA-Voices Aufgaben.

Die Daten aus diesen Aufgaben wurden von 60 Teilnehmern mit TBI gesammelt und 60 nach Alter und Geschlecht abgestimmte Kontrollen. Die Teilnehmer wurden entweder einzeln oder in kleinen Gruppen (max = 3) und die Reihenfolge der in Testsitzungen wurde randomisiert drei Aufgaben gesehen.

Protocol

Dieses Protokoll wurde von den Institutional Review Boards an der Brock University und an Carolinas Rehabilitation genehmigt. 1. Vor der Prüfung Erstellen Sie drei separate Listen für die 15 Filmclips, die jeweils die Auflistung der Clips in einem anderen eingeschränkten Reihenfolge. Stellen Sie sicher, dass jede Liste beginnt und endet mit einem neutralen Reiz und dass keine zwei Clips, die die gleiche Emotion nacheinander auftreten Ziel. Erstellen Sie eine…

Representative Results

Diese Aufgabe Batterie verwendet wurde Emotionserkennung für isolierte Emotionen Ausdrücken zu vergleichen (dh von Angesicht nur,. Voice-only) und kombiniert Emotionen Ausdrücken (. Dh, Gesicht und Stimme) , die innerhalb eines situativen Kontext auftreten. Insgesamt 60 (37 Männer und 23 Frauen) Teilnehmer mit mittelschwerer bis schwerer TBI im Alter von 21 bis 63 Jahren (Mittelwert = 40,98) und 60 (38 Männer und 22 Frauen) Alter -matched Controls (Bereich = 18 bis…

Discussion

Das Manuskript beschreibt drei Aufgaben verwendet, um Emotionserkennung Fähigkeiten von Menschen mit TBI beurteilen. Das Ziel des beschriebenen Verfahrens war Ansprechgenauigkeit für Gesichts- und Stimm emotionale Signale in Isolation, um die Wahrnehmung dieser Signale gleichzeitig innerhalb sinnvoller situativen Kontext auftreten, zu vergleichen. Film-Clips wurden in der aktuellen Studie aufgenommen, weil ihre Annäherung an Alltagssituationen machte sie ökologisch gültig als isolierte Darstellungen von Emotionen A…

Divulgazioni

The authors have nothing to disclose.

Acknowledgements

This work was supported by the Humanities Research Institute at Brock University in St. Catharines, Ontario, Canada and by the Cannon Research Center at Carolinas Rehabilitation in Charlotte, North Carolina, USA.

Materials

Diagnostic Analysis of Nonverbal Accuracy-2 Department of Pychology, Emory University. Atlanta, GA DANVA-Faces subtest, DANVA-Voices subtest
Computer Apple iMac Desktop, 27" display
Statistical Analysis Software SPSS University Licensed software for data analysis
Happy Film Clip 1 Sweet Home Alabama, D&D Films, 2002, Director: A Tennant A man surprises his girlfriend by proposing in a jewelry store
Happy Film Clip 2 Wedding Crashers, New Line Cinema, 2005, Director: D. Dobkin A couple is sitting on the beach and flirting while playing a hand game
Happy Film Clip 3 Reme-mber the Titans, Jerry Bruckheimer Films, 2000, Director: B. Yakin An African American football coach and his family are accepted by their community when the school team wins the football championship
Sad Film Clip 1 Grey's Anatomy, ABC, 2006, Director: P. Horton A father is only able to communicate with his family using his eyes. 
Sad Film Clip 2 Armageddon, Touchstone Pictures, 1998, Director: M. Bay A daughter is saying goodbye to her father who is in space on a dangerous mission
Sad Film Clip 3 Grey's Anatomy, ABC, 2006, Director: M. Tinker A woman is heartbroken her fiance has died
Angry Film Clip 1 Anne of Green Gables, Canadian Broadcast Corporation, 1985, Director: K. Sullivan An older woman speaks openly about a child's physical appearance in front of her
Angry Film Clip 2 Enough, Columbia Pictures, 2002, Director: M. Apted A wife confronts her husband about an affair when she smells another woman's perfume on his clothing
Angry Film Clip 3 Pretty Woman, Touchstone Pictures, 1990, Director: G. Marshall A call girl attempts to purchase clothing in an expensive boutique and is turned away
Fearful Film Clip 1 Blood Diamond, Warner Bros Pictures, 2006, Director: E. Zwick Numerous vehicles carrying militia approach a man and his son while they are out walking
Fearful Film Clip 2 The Life Before Her Eyes, 2929 Productions, 2007, Directors: V. Perelman Two teenaged gilrs are talking in the school bathroom when they hear gunshots that continue to get closer
Fearful Film Clip 3 The Sixth Sense, Barry Mendel Productions, 1999, Director: M. N. Shyamalan A young boy enters the kitchen in the middle of the night and finds his mother behaving very atypically
Neutral Film Clip 1 The Other Sister, Mandeville Films, 1999, Director: G. Marshall A mother and daughter are discussing an art book while sitting in their living room
Neutral Film Clip 2 The Game, Polygram Filmed Entertainment, 1999, Director: D. Fincher One gentleman is explaining the rules of a game to another
Neutral Film Clip 3 The Notebook, New Line Cinema, 2004, Director: N. Cassavetes An older gentleman and his doctor are conversing during a routine check-up

Riferimenti

  1. Langlois, J., Rutland-Brown, W., Wald, M. The epidemiology and impact of traumatic brain injury: A brief overview. J. Head Trauma Rehabil. 21 (5), 375-378 (2006).
  2. Babbage, D. R., Yim, J., Zupan, B., Neumann, D., Tomita, M. R., Willer, B. Meta-analysis of facial affect recognition difficulties after traumatic brain injury. Neuropsychology. 25 (3), 277-285 (2011).
  3. Neumann, D., Zupan, B., Tomita, M., Willer, B. Training emotional processing in persons with brain injury. J. Head Trauma Rehabil. 24, 313-323 (2009).
  4. Bornhofen, C., McDonald, S. Treating deficits in emotion perception following traumatic brain injury. Neuropsychol Rehabil. 18 (1), 22-44 (2008).
  5. Zupan, B., Neumann, D., Babbage, D. R., Willer, B. The importance of vocal affect to bimodal processing of emotion: implications for individuals with traumatic brain injury. J Commun Disord. 42 (1), 1-17 (2009).
  6. Bibby, H., McDonald, S. Theory of mind after traumatic brain injury. Neuropsychologia. 43 (1), 99-114 (2005).
  7. Ferstl, E. C., Rinck, M., von Cramon, D. Y. Emotional and temporal aspects of situation model processing during text comprehension: an event-related fMRI study. J. Cogn. Neurosci. 17 (5), 724-739 (2005).
  8. Milders, M., Fuchs, S., Crawford, J. R. Neuropsychological impairments and changes in emotional and social behaviour following severe traumatic brain injury. J. Clin. Exp. Neuropsychol. 25 (2), 157-172 (2003).
  9. Spikman, J., Milders, M., Visser-Keizer, A., Westerhof-Evers, H., Herben-Dekker, M., van der Naalt, J. Deficits in facial emotion recognition indicate behavioral changes and impaired self-awareness after moderate to severe tramatic brain injury. PloS One. 8 (6), e65581 (2013).
  10. Zupan, B., Neumann, D. Affect Recognition in Traumatic Brain Injury: Responses to Unimodal and Multimodal Media. J. Head Trauma Rehabil. 29 (4), E1-E12 (2013).
  11. Radice-Neumann, D., Zupan, B., Babbage, D. R., Willer, B. Overview of impaired facial affect recognition in persons with traumatic brain injury. Brain Inj. 21 (8), 807-816 (2007).
  12. McDonald, S. Are You Crying or Laughing? Emotion Recognition Deficits After Severe Traumatic Brain Injury. Brain Impair. 6 (01), 56-67 (2005).
  13. Cunningham, D. W., Wallraven, C. Dynamic information for the recognition of conversational expressions. J. Vis. 9 (13), 1-17 (2009).
  14. Elfenbein, H. A., Marsh, A. A., Ambady, W. I. N. Emotional Intelligence and the Recognition of Emotion from Facid Expressions. The Wisdom in Feeling: Psychological Processes in Emotional Intelligence. , 37-59 (2002).
  15. McDonald, S., Saunders, J. C. Differential impairment in recognition of emotion across different media in people with severe traumatic brain injury. J. Int Neuropsycho. Soc. : JINS. 11 (4), 392-399 (2005).
  16. Williams, C., Wood, R. L. Impairment in the recognition of emotion across different media following traumatic brain injury. J. Clin. Exp. Neuropsychol. 32 (2), 113-122 (2010).
  17. Adolphs, R., Tranel, D., Damasio, A. R. Dissociable neural systems for recognizing emotions. Brain Cogn. 52 (1), 61-69 (2003).
  18. Biele, C., Grabowska, A. Sex differences in perception of emotion intensity in dynamic and static facial expressions. Exp. Brain Res. 171, 1-6 (2006).
  19. Collignon, O., Girard, S., et al. Audio-visual integration of emotion expression. Brain Res. 1242, 126-135 (2008).
  20. LaBar, K. S., Crupain, M. J., Voyvodic, J. T., McCarthy, G. Dynamic perception of facial affect and identity in the human brain. Cereb. Cortex. 13 (10), 1023-1033 (2003).
  21. Mayes, A. K., Pipingas, A., Silberstein, R. B., Johnston, P. Steady state visually evoked potential correlates of static and dynamic emotional face processing. Brain Topogr. 22 (3), 145-157 (2009).
  22. Sato, W., Yoshikawa, S. Enhanced Experience of Emotional Arousal in Response to Dynamic Facial Expressions. J. Nonverbal Behav. 31 (2), 119-135 (2007).
  23. Schulz, J., Pilz, K. S. Natural facial motion enhances cortical responses to faces. Exp. Brain Res. 194 (3), 465-475 (2009).
  24. O’Toole, A., Roark, D., Abdi, H. Recognizing moving faces: A psychological and neural synthesis. Trends Cogn. Sci. 6 (6), 261-266 (2002).
  25. Dimoska, A., McDonald, S., Pell, M. C., Tate, R. L., James, C. M. Recognizing vocal expressions of emotion in patients with social skills deficits following traumatic brain injury. J. Int. Neuropsyco. Soc.: JINS. 16 (2), 369-382 (2010).
  26. McDonald, S., Flanagan, S., Rollins, J., Kinch, J. TASIT: A new clinical tool for assessing social perception after traumatic brain injury. J. Head Trauma Rehab. 18 (3), 219-238 (2003).
  27. Channon, S., Pellijeff, A., Rule, A. Social cognition after head injury: sarcasm and theory of mind. Brain Lang. 93 (2), 123-134 (2005).
  28. Henry, J. D., Phillips, L. H., Crawford, J. R., Theodorou, G., Summers, F. Cognitive and psychosocial correlates of alexithymia following traumatic brain injury. Neuropsychologia. 44 (1), 62-72 (2006).
  29. Martìn-Rodrìguez, J. F., Leòn-Carriòn, J. Theory of mind deficits in patients with acquired brain injury: a quantitative review. Neuropsychologia. 48 (5), 1181-1191 (2010).
  30. McDonald, S., Flanagan, S. Social perception deficits after traumatic brain injury: interaction between emotion recognition, mentalizing ability, and social communication. Neuropsychology. 18 (3), 572-579 (2004).
  31. Milders, M., Ietswaart, M., Crawford, J. R., Currie, D. Impairments in theory of mind shortly after traumatic brain injury and at 1-year follow-up. Neuropsychology. 20 (4), 400-408 (2006).
  32. Nowicki, S. . The Manual for the Receptive Tests of the Diagnostic Analysis of Nonverbal Accuracy 2 (DANVA2). , (2008).
  33. Gross, J. J., Levenson, R. W. Emotion Elicitation Using Films. Cogn. Emot. 9 (1), 87-108 (1995).
  34. Spell, L. A., Frank, E. Recognition of Nonverbal Communication of Affect Following Traumatic Brain Injury. J. Nonverbal Behav. 24 (4), 285-300 (2000).
  35. Edgar, C., McRorie, M., Sneddon, I. Emotional intelligence, personality and the decoding of non-verbal expressions of emotion. Pers. Ind. Dif. 52, 295-300 (2012).
  36. Nowicki, S., Mitchell, J. Accuracy in Identifying Affect in Child and Adult Faces and Voices and Social Competence in Preschool Children. Genet. Soc. Gen. Psychol. 124 (1), (1998).
  37. Astesano, C., Besson, M., Alter, K. Brain potentials during semantic and prosodic processing in French. Cogn. Brain Res. 18, 172-184 (2004).
  38. Kotz, S. A., Paulmann, S. When emotional prosody and semantics dance cheek to cheek: ERP evidence. Brain Res. 115, 107-118 (2007).
  39. Paulmann, S., Pell, M. D., Kotz, S. How aging affects the recognition of emotional speech. Brain Lang. 104 (3), 262-269 (2008).
  40. Pell, M. D., Jaywant, A., Monetta, L., Kotz, S. A. Emotional speech processing: disentangling the effects of prosody and semantic cues. Cogn. Emot. 25 (5), 834-853 (2011).
  41. Bänziger, T., Scherer, K. R. Using Actor Portrayals to Systematically Study Multimodal Emotion Expression: The GEMEP Corpus. Affective Computing and Intelligent Interaction, LNCS 4738. , 476-487 (2007).
  42. Busselle, R., Bilandzic, H. Fictionality and Perceived Realism in Experiencing Stories: A Model of Narrative Comprehension and Engagement. Commun. Theory. 18 (2), 255-280 (2008).
  43. Zagalo, N., Barker, A., Branco, V. Story reaction structures to emotion detection. Proceedings of the 1st ACM Work. Story Represent. Mech. Context – SRMC. 04, 33-38 (2004).
  44. Hagemann, D., Naumann, E., Maier, S., Becker, G., Lurken, A., Bartussek, D. The Assessment of Affective Reactivity Using Films: Validity, Reliability and Sex Differences. Pers. Ind. Dif. 26, 627-639 (1999).
  45. Hewig, J., Hagemann, D., Seifert, J., Gollwitzer, M., Naumann, E., Bartussek, D. Brief Report. A revised film set for the induction of basic emotions. Cogn. Emot. 19 (7), 1095-1109 (2005).
  46. Wranik, T., Scherer, K. R. Why Do I Get Angry? A Componential Appraisal Approach. International Handbook of Anger. , 243-266 (2010).
  47. Neumann, D., Zupan, B., Malec, J. F., Hammond, F. M. Relationships between alexithymia, affect recognition, and empathy after traumatic brain injury. J. Head Trauma Rehabil. 29 (1), E18-E27 (2013).
  48. Russell, J. A. Is there universal recognition of emotion from facial expression? A review of the cross-cultural studies. Psychol. Bull. 115 (1), 102-141 (1994).

Play Video

Citazione di questo articolo
Zupan, B., Neumann, D. Exploring the Use of Isolated Expressions and Film Clips to Evaluate Emotion Recognition by People with Traumatic Brain Injury. J. Vis. Exp. (111), e53774, doi:10.3791/53774 (2016).

View Video