Does motor mimicry contribute to emotion recognition?

2010 ◽  
Vol 33 (6) ◽  
pp. 447-448
Author(s):  
Cindy Hamon-Hill ◽  
John Barresi

AbstractWe focus on the role that motor mimicry plays in the SIMS model when interpreting whether a facial emotional expression is appropriate to an eliciting context. Based on our research, we find general support for the SIMS model in these situations, but with some qualifications on how disruption of motor mimicry as a process relates to speed and accuracy in judgments.

2013 ◽  
Vol 61 (1) ◽  
pp. 7-15 ◽  
Author(s):  
Daniel Dittrich ◽  
Gregor Domes ◽  
Susi Loebel ◽  
Christoph Berger ◽  
Carsten Spitzer ◽  
...  

Die vorliegende Studie untersucht die Hypothese eines mit Alexithymie assoziierten Defizits beim Erkennen emotionaler Gesichtsaudrücke an einer klinischen Population. Darüber hinaus werden Hypothesen zur Bedeutung spezifischer Emotionsqualitäten sowie zu Gender-Unterschieden getestet. 68 ambulante und stationäre psychiatrische Patienten (44 Frauen und 24 Männer) wurden mit der Toronto-Alexithymie-Skala (TAS-20), der Montgomery-Åsberg Depression Scale (MADRS), der Symptom-Check-List (SCL-90-R) und der Emotional Expression Multimorph Task (EEMT) untersucht. Als Stimuli des Gesichtererkennungsparadigmas dienten Gesichtsausdrücke von Basisemotionen nach Ekman und Friesen, die zu Sequenzen mit sich graduell steigernder Ausdrucksstärke angeordnet waren. Mittels multipler Regressionsanalyse untersuchten wir die Assoziation von TAS-20 Punktzahl und facial emotion recognition (FER). Während sich für die Gesamtstichprobe und den männlichen Stichprobenteil kein signifikanter Zusammenhang zwischen TAS-20-Punktzahl und FER zeigte, sahen wir im weiblichen Stichprobenteil durch die TAS-20 Punktzahl eine signifikante Prädiktion der Gesamtfehlerzahl (β = .38, t = 2.055, p < 0.05) und den Fehlern im Erkennen der Emotionen Wut und Ekel (Wut: β = .40, t = 2.240, p < 0.05, Ekel: β = .41, t = 2.214, p < 0.05). Für wütende Gesichter betrug die Varianzaufklärung durch die TAS-20-Punktzahl 13.3 %, für angeekelte Gesichter 19.7 %. Kein Zusammenhang bestand zwischen der Zeit, nach der die Probanden die emotionalen Sequenzen stoppten, um ihre Bewertung abzugeben (Antwortlatenz) und Alexithymie. Die Ergebnisse der Arbeit unterstützen das Vorliegen eines mit Alexithymie assoziierten Defizits im Erkennen emotionaler Gesichtsausdrücke bei weiblchen Probanden in einer heterogenen, klinischen Stichprobe. Dieses Defizit könnte die Schwierigkeiten Hochalexithymer im Bereich sozialer Interaktionen zumindest teilweise begründen und so eine Prädisposition für psychische sowie psychosomatische Erkrankungen erklären.


2019 ◽  
Vol 15 (4) ◽  
pp. 22-40
Author(s):  
P Vasuki ◽  
Divya Bharati R

The real challenge in human-computer interaction is understanding human emotions by machines and responding to it accordingly. Emotion varies by gender and age of the speaker, location, and cause. This article focuses on the improvement of emotion recognition (ER) from speech using gender-biased influences in emotional expression. The problem is addressed by testing emotional speech with an appropriate specific-gender ER system. As acoustical characteristics vary among the genders, there may not be a common optimal feature set across both genders. Gender-based speech emotion recognition, a two-level hierarchical ER system is proposed, where the first level is gender identification which identifies the gender, and the second level is a gender-specific ER system, trained with an optimal feature set of expressions of a particular gender. The proposed system increases the accuracy of traditional Speech Emotion Recognition Systems (SER) by 10.36% than the SER trained with mixed gender training when tested on the EMO-DB Corpus.


1998 ◽  
Vol 5 (1) ◽  
pp. 15-23 ◽  
Author(s):  
Alizah Z. Brozgold ◽  
Joan C. Borod ◽  
Candace C. Martin ◽  
Lawrence H. Pick ◽  
Murray Alpert ◽  
...  

2011 ◽  
Vol 505 (1) ◽  
pp. 41-46 ◽  
Author(s):  
Agustin Petroni ◽  
Andrés Canales-Johnson ◽  
Hugo Urquina ◽  
Raphael Guex ◽  
Esteban Hurtado ◽  
...  

Perception ◽  
2018 ◽  
Vol 47 (12) ◽  
pp. 1117-1138 ◽  
Author(s):  
Emese Nagy ◽  
Stacey C. Paton ◽  
Fiona E. A. Primrose ◽  
Tibor N. Farkas ◽  
Coreen F. Pow

Autism spectrum disorders (ASD) involve difficulties with socioemotional functioning; however, research on emotion recognition remains inconclusive. Children with ASD have been reported to show less susceptibility to spatial inversion. The aim of this study is to examine whether children with ASD utilize atypical abilities in socioemotional processing. This study tested 13 children with ASD (1 girl, M: 15.10 years, standard deviation [ SD]: 1.60 years), 13 children without ASD (3 girls, M: 15.92 years, SD: 1.03 years), and 20 control adults (11 women, M: 24.77 years, SD: 8.30 years) to investigate the speed and accuracy of their responses to images of neutral faces and faces expressing “easy” (happiness, anger) and “difficult” emotions (surprise, fear) in nonrotated (0°) and rotated (30°, 90°, 150°, 180°, 210°, 270°, and 330°) positions. The results showed that children with ASD recognized both easy and difficult emotions as accurately as did children and adults without ASD. Children with ASD, however, responded significantly faster to difficult emotions when the images were rotated. These results offer less support for a deficiency model than for an atypical, rapid featural type of processing used by children with ASD to encode and understand complex socioemotional stimuli.


Sign in / Sign up

Export Citation Format

Share Document