scholarly journals Music recommendation system based on facial emotion recognition

Author(s):  
Deny John Samuvel ◽  
B. Perumal ◽  
Muthukumaran Elangovan
2020 ◽  
Vol 17 (9) ◽  
pp. 3958-3963
Author(s):  
M. V. Manoj Kumar ◽  
B. S. Prashanth ◽  
Syeda Sarah ◽  
Md. Kashif ◽  
H. R. Sneha

This Paper proposes method to recommend a set of songs based on the facial emotion state of the user. Emotion state of the user is detected with the help of google mobile vision SDK. The detected emotion state is fed to Expression-X algorithm that would sort the music (based on emotion value is keyed in) and generates a playlist which suites the emotion state of user. Since emotions are calculated based on the facial expression of a user, achieving 100% accuracy is undoubtedly hard as everyone has their own way of expressing emotions facially, with repetitive testing we have achieved 70–75% success rate in detecting the rite emotion state of the user, and generating the suitable set of song recommendation.


2020 ◽  
Vol 17 (4) ◽  
pp. 1662-1665
Author(s):  
S. Visnu Dharsini ◽  
B. Balaji ◽  
K. S. Kirubha Hari ◽  
Sridharshini

Face recognition technology has widely attracted attention due to its enormous application value and market potential. It is being implemented in various fields like security system, digital video processing and many such technological advances. Additionally, music is the form of art, which is known to have a greater connection with a person’s emotion. It has got an unique ability to lift up one’s mood. Relatively, this paper focuses on building an efficient music recommendation system which determines the emotion of user using Facial Recognition techniques. The algorithm implemented would prove to be more proficient than the existing systems. Moreover, on a larger dimension, this would render salvage of time and labor invested in performing the process manually. The overall concept of the system is to recognize facial emotion and recommend songs efficiently. The proposed system will be both time and cost efficient.


2013 ◽  
Vol 61 (1) ◽  
pp. 7-15 ◽  
Author(s):  
Daniel Dittrich ◽  
Gregor Domes ◽  
Susi Loebel ◽  
Christoph Berger ◽  
Carsten Spitzer ◽  
...  

Die vorliegende Studie untersucht die Hypothese eines mit Alexithymie assoziierten Defizits beim Erkennen emotionaler Gesichtsaudrücke an einer klinischen Population. Darüber hinaus werden Hypothesen zur Bedeutung spezifischer Emotionsqualitäten sowie zu Gender-Unterschieden getestet. 68 ambulante und stationäre psychiatrische Patienten (44 Frauen und 24 Männer) wurden mit der Toronto-Alexithymie-Skala (TAS-20), der Montgomery-Åsberg Depression Scale (MADRS), der Symptom-Check-List (SCL-90-R) und der Emotional Expression Multimorph Task (EEMT) untersucht. Als Stimuli des Gesichtererkennungsparadigmas dienten Gesichtsausdrücke von Basisemotionen nach Ekman und Friesen, die zu Sequenzen mit sich graduell steigernder Ausdrucksstärke angeordnet waren. Mittels multipler Regressionsanalyse untersuchten wir die Assoziation von TAS-20 Punktzahl und facial emotion recognition (FER). Während sich für die Gesamtstichprobe und den männlichen Stichprobenteil kein signifikanter Zusammenhang zwischen TAS-20-Punktzahl und FER zeigte, sahen wir im weiblichen Stichprobenteil durch die TAS-20 Punktzahl eine signifikante Prädiktion der Gesamtfehlerzahl (β = .38, t = 2.055, p < 0.05) und den Fehlern im Erkennen der Emotionen Wut und Ekel (Wut: β = .40, t = 2.240, p < 0.05, Ekel: β = .41, t = 2.214, p < 0.05). Für wütende Gesichter betrug die Varianzaufklärung durch die TAS-20-Punktzahl 13.3 %, für angeekelte Gesichter 19.7 %. Kein Zusammenhang bestand zwischen der Zeit, nach der die Probanden die emotionalen Sequenzen stoppten, um ihre Bewertung abzugeben (Antwortlatenz) und Alexithymie. Die Ergebnisse der Arbeit unterstützen das Vorliegen eines mit Alexithymie assoziierten Defizits im Erkennen emotionaler Gesichtsausdrücke bei weiblchen Probanden in einer heterogenen, klinischen Stichprobe. Dieses Defizit könnte die Schwierigkeiten Hochalexithymer im Bereich sozialer Interaktionen zumindest teilweise begründen und so eine Prädisposition für psychische sowie psychosomatische Erkrankungen erklären.


2017 ◽  
Vol 32 (8) ◽  
pp. 698-709 ◽  
Author(s):  
Ryan Sutcliffe ◽  
Peter G. Rendell ◽  
Julie D. Henry ◽  
Phoebe E. Bailey ◽  
Ted Ruffman

2020 ◽  
Vol 35 (2) ◽  
pp. 295-315 ◽  
Author(s):  
Grace S. Hayes ◽  
Skye N. McLennan ◽  
Julie D. Henry ◽  
Louise H. Phillips ◽  
Gill Terrett ◽  
...  

Sign in / Sign up

Export Citation Format

Share Document