Advertisement

Moosic: Von der content- zur kontextbasierten Musikempfehlung

  • Patrick Helmholz
  • Michael MeyerEmail author
  • Susanne Robra-Bissantz
Schwerpunkt
  • 16 Downloads

Zusammenfassung

Musik begleitet uns den ganzen Tag bei einer Vielzahl von Aktivitäten und in unterschiedlichsten Stimmungen. Insbesondere durch Musik-Streaming-Dienste und mobile Endgeräte wurde ein allgegenwärtiges Hörerlebnis mit sofortigem Zugriff auf eine nahezu unbegrenzte Vielfalt an Musik ermöglicht. Dieser Zugang führt jedoch zu dem Kundenproblem, die richtige Musik für eine bestimmte Situation oder Stimmung auszuwählen. Der Nutzer ist bei der Musikauswahl oft überfordert. Kontextinformationen, hier im Speziellen emotionale Informationen des Nutzers, können bei der Musikauswahl helfen. Die Möglichkeiten Musik anhand der Stimmung auszuwählen sind derzeit begrenzt. Die Anbieter setzen auf vordefinierte Playlisten für unterschiedliche Situationen oder Stimmungen. Das Problem hierbei ist jedoch, dass sie sich nicht den neuen Nutzergegebenheiten anpassen. Eine einfache, intuitive und automatische Auswahl von Musik auf Basis von Emotionen wird in der IS-Praxis und -Forschung bisher wenig untersucht. Dieses Paper beschreibt das IS-Musikforschungsprojekt „Moosic“, das eine intuitive und emotionale Art der Musikempfehlung für den Alltag untersucht und iterativ umsetzt. Im Rahmen der Arbeit wird zudem auf eine erste Evaluation des Prototyps eingegangen und ein Ausblick auf die weitere Entwicklung gegeben.

Schlüsselwörter

Musikempfehlung Stimmung Emotion Kontext Klassifikation 

Moosic: From Content- to Context-Based Music Recommendation

Abstract

Music accompanies us throughout the day in a variety of activities and moods. In particular, music streaming services and mobile devices have enabled a ubiquitous listening experience with instant access to an almost unlimited variety of music. However, this access leads to the customer’s problem of choosing the right music for a special situation or mood. The user is often overwhelmed when choosing music. Context information, in particular emotional information of the user, can help in the music selection process. The possibilities to select music based on mood are currently limited. The providers rely on predefined playlists for different situations or moods. However, the problem with predefined lists is, that they do not adapt to the new user conditions. A simple, intuitive and automatic selection of music based on emotions has so far been little investigated in IS practice and research. This paper describes the IS music research project “Moosic”, which investigates and iteratively implements an intuitive and emotion-based music recommendation application for everyday life. In addition, an initial evaluation of the prototype will be discussed and an outlook on further development will be given.

Keywords

Music recommendation Mood Emotion Context Classification 

Literatur

  1. Ayata D, Yaslan Y, Kamasak ME (2018) Emotion based music recommendation system using wearable physiological sensors. IEEE Trans Consum Electron 64:196–203.  https://doi.org/10.1109/TCE.2018.2844736 CrossRefGoogle Scholar
  2. Bachmann A, Klebsattel C, Schankin A et al (2015) Leveraging smartwatches for unobtrusive mobile ambulatory mood assessment. In: Proceedings of the 2015 ACM International Joint Conference on Pervasive and Ubiquitous Computing and Proceedings of the 2015 ACM International Symposium on Wearable Computers—UbiComp ’15. ACM Press, Osaka, S 1057–1062Google Scholar
  3. Brave S, Nass C (2003) Emotion in human-computer interaction. In: Jacko JA, Sears A (Hrsg) The Human-computer Interaction Handbook. Erlbaum, Hillsdale, S 81–96Google Scholar
  4. Bundesverband Musikindustrie (BVMI) (2018) Musikindustrie in Zahlen 2017. Bundesverband Musikindustrie (BVMI), BerlinGoogle Scholar
  5. Cabanac M (2002) What is emotion? Behav Processes 60:69–83.  https://doi.org/10.1016/S0376-6357(02)00078-5 CrossRefGoogle Scholar
  6. Clement M (2018) Studie zur Zukunft der Musik. Lehrstuhl für Marketing & Media, Universität Hamburg, HamburgGoogle Scholar
  7. DeNora T (2011) Music in everyday life. Cambridge University Press, CambridgeGoogle Scholar
  8. Essa IA, Pentland AP (1995) Facial expression recognition using a dynamic model and motion energy. IEEE Comput. Soc. Press, Cambridge, S 360–367Google Scholar
  9. Gaston ET (1951) Dynamic music factors in mood change. Music Educ J 37:42–44.  https://doi.org/10.2307/3387360 CrossRefGoogle Scholar
  10. Hussain SS, Peter C, Bieber G (2009) Emotion recognition on the go: providing personalized services based on emotional states Bd. 6Google Scholar
  11. Jamdar A, Abraham J, Khanna K, Dubey R (2015) Emotion analysis of songs based on lyrical and audio features. Int J Artif Intell Appl 6:35–50.  https://doi.org/10.5121/ijaia.2015.6304 Google Scholar
  12. Janssen JH, van den Broek EL, Westerink JHDM (2012) Tune in to your emotions: a robust personalized affective music player. User Model User Adapt Interact 22:255–279.  https://doi.org/10.1007/s11257-011-9107-7 CrossRefGoogle Scholar
  13. Kim J, Lee S, Kim S, Yoo WY (2011) Music mood classification model based on arousal-valence values. In: 13th International Conference on Advanced Communication Technology (ICACT), S 292–295Google Scholar
  14. Krause AE, North AC (2014) Contextualized music listening: playlists and the Mehrabian and Russell model. Psychol Well-being 4:1–16.  https://doi.org/10.1186/s13612-014-0022-7 CrossRefGoogle Scholar
  15. Meschtscherjakov A, Weiss A, Scherndl T (2009) Utilizing Emoticons on mobile devices within ESM studies to measure emotions in the field. Proc MME Conjunction MobileHCI 9.Google Scholar
  16. Pettijohn TF, Williams GM, Carter TC (2010) Music for the seasons: seasonal music preferences in college students. Curr Psychol 29:328–345.  https://doi.org/10.1007/s12144-010-9092-8 CrossRefGoogle Scholar
  17. Picard RW, Klein J (2002) Computers that recognise and respond to user emotion: theoretical and practical implications. Interact Comput 14:141–169.  https://doi.org/10.1016/S0953-5438(01)00055-8 CrossRefGoogle Scholar
  18. Pollacci L, Guidotti R, Rossetti G (2016) “Are we playing like music-stars?” placing emerging artists on the Italian music sceneGoogle Scholar
  19. Reeves B, Nass C (1996) The media equation: how people treat computers, television, and new media like real people and pla. Bibliovault OAI Repos Univ Chic Press, CambridgeGoogle Scholar
  20. Russell JA (1980) A circumplex model of affect. J Pers Soc Psychol 39:1161–1178.  https://doi.org/10.1037/h0077714 CrossRefGoogle Scholar
  21. Scaringella N, Zoia G, Mlynek D (2006) Automatic genre classification of music content: a survey. IEEE Signal Process Mag 23:133–141.  https://doi.org/10.1109/MSP.2006.1598089 CrossRefGoogle Scholar
  22. Sloboda JA (2011) Music in everyday life: the role of emotions. In: Juslin PN, Sloboda J (Hrsg) Handbook of music and emotion: theory, research, applications. Oxford University Press, OxfordGoogle Scholar
  23. Thayer RE (1991) The biopsychology of mood and arousal. Oxford University Press, OxfordGoogle Scholar
  24. Yurur O, Liu CH, Sheng Z et al (2016) Context-awareness for mobile sensing: a survey and future directions. IEEE Commun Surv Tutor 18:68–93.  https://doi.org/10.1109/COMST.2014.2381246 CrossRefGoogle Scholar

Copyright information

© Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2019

Authors and Affiliations

  • Patrick Helmholz
    • 1
  • Michael Meyer
    • 1
    Email author
  • Susanne Robra-Bissantz
    • 1
  1. 1.Lehrstuhl Informationsmanagement, Institut für WirtschaftsinformatikTechnische Universität BraunschweigBraunschweigDeutschland

Personalised recommendations