Por favor, use este identificador para citar o enlazar este ítem: http://hdl.handle.net/11422/27330

Especie: Dissertação
Título : Machine learning methods in music emotion recognition
Autor(es)/Inventor(es): Dessabato, Karolayne Pereira
Tutor: Carvalho, Hugo Tremonte de
Resumen: O Reconhecimento de Emoções Musicais (MER), uma área dentro da Recuperação de Informação Musical (MIR), estuda as emoções evocadas nos ouvintes pela música. Abordamos o MER como uma tarefa de regressão, com o objetivo de prever o conteúdo emocional da música (codificado em excitação e valência) a partir de características acústicas extraídas da forma de onda. Para alcançar isso, empregamos abordagens de aprendizado de máquina e modelagem dinâmica, com foco na interpretabilidade. Inicialmente, treinamos um modelo de floresta aleatória no conjunto de dados DEAM (MediaEval Database for Emotional Analysis of Music) para prever excitação e valência. Em seguida, aplicamos valores de Shapley para interpretar o papel de cada característica nas previsões do modelo, identificando as variáveis mais significativas. Além disso, exploramos uma abordagem de modelo linear dinâmico para obter insights adicionais sobre as relações entre características e variáveis de resposta. Este método permite uma representação potencialmente “menos caixa-preta” e mais interpretável do problema. A Análise de Componentes Principais (PCA) também é utilizada para analisar a estrutura de características no conjunto de dados, proporcionando uma compreensão mais abrangente das variáveis-chave que influenciam as previsões do MER. Ao integrar essas abordagens, objetivamos aprimorar tanto o desempenho preditivo quanto a interpretabilidade dos modelos, oferecendo insights significativos sobre as covariáveis mais relevantes que impulsionam as respostas emocionais na música.
Resumen: Music Emotion Recognition (MER), an area within Musical Information Retrieval (MIR), studies the emotions evoked in listeners by music. We address MER as a regression task, with the objective of predicting the emotional content of music (encoded in arousal and valence) from acoustic features extracted from the waveform. We apply an interpretable machine learning technique, investigating the role of these features in predicting the target variables. Initially, a random forest model is trained on the DEAM dataset (MediaEval Database for Emotional Analysis of Music). Then, we use the concept of Shapley values to interpret the role of each variable in the predictions made by this model. Finally, we extract the most significant features from the DEAM dataset to predict arousal and valence, thus enhancing the interpretability of the model employed. Additionally, we explore a dynamic linear model approach to gain further insights into the relationships between features and response variables. This method allows for a potentially “less black-box” and more interpretable representation of the problem. Principal Component Analysis (PCA) is also utilized to analyze the structure of features in the dataset, providing a more comprehensive understanding of the key variables influencing MER predictions. By integrating these approaches, we aim to enhance both the predictive performance and interpretability of the models, offering meaningful insights into the most relevant features that drive emotional responses in music.
Materia: Modelos lineares
Recuperação de informação musical
Reconhecimento de emoções em músicas
Aprendizado de máquina
Valor de Shapley
Linear models
Musical information retrieval
Music emotion recognition
Machine learning
Materia CNPq: CNPQ::CIENCIAS EXATAS E DA TERRA::PROBABILIDADE E ESTATISTICA
Programa: Programa de Pós-Graduação em Estatística
Unidade de producción: Instituto de Matemática
Editor: Universidade Federal do Rio de Janeiro
Fecha de publicación: 2025
País de edición : Brasil
Idioma de publicación: eng
Tipo de acceso : Acesso Aberto
Aparece en las colecciones: Estatística

Ficheros en este ítem:
Fichero Descripción Tamaño Formato  
KPDessabato.pdf1.1 MBAdobe PDFVisualizar/Abrir


Los ítems de DSpace están protegidos por copyright, con todos los derechos reservados, a menos que se indique lo contrario.