Please use this identifier to cite or link to this item: http://hdl.handle.net/11422/12051
Full metadata record
DC FieldValueLanguage
dc.contributor.advisorTierra-Criollo, Carlos Julio-
dc.contributor.authorMelo, Bruno Raphael Pastor de-
dc.date.accessioned2020-04-29T01:37:53Z-
dc.date.available2023-12-21T03:07:04Z-
dc.date.issued2018-05-
dc.identifier.urihttp://hdl.handle.net/11422/12051-
dc.description.abstractDuring the last decades, a significant effort has been made to identify objective physiological markers of subjective emotional states. This work presents an experimental protocol for the induction of tenderness and anguish emotions using a multimodal stimulation with the combination of a virtual reality (VR) scene with excerpts of music. The protocol was applied in neurofeedback acquisitions using functional magnetic resonance imaging (fMRI) that demonstrated to be possible activate brain regions related to the emotions studied. Subsequently, a new study on the protocol using electroencephalographic (EEG) signals was done, where data were used in offline analysis with artificial neural networks. The results demonstrated that it is possible to distinguish complex emotional states through EEG features with maximum accuracy above 90%. In addition, they allowed a better understanding of the mechanisms of voluntary emotional regulation and its neural correlates, and could contribute to the development of new tools and/or neurotechnological equipment.pt_BR
dc.languageporpt_BR
dc.publisherUniversidade Federal do Rio de Janeiropt_BR
dc.rightsAcesso Abertopt_BR
dc.subjectEEGpt_BR
dc.subjectAprendizado de máquinapt_BR
dc.subjectRegulação emocionalpt_BR
dc.titleIdentificação de estados emocionais complexos com base em ressonância magnética e eletroencefalografia: uma abordagem com cenário de realidade virtualpt_BR
dc.title.alternativeRecognition of complex emotional states based on magnetic resonance and electroencephalography: an approach with virtual reality scenariospt_BR
dc.typeTesept_BR
dc.contributor.advisorLatteshttp://lattes.cnpq.br/5743404268947726pt_BR
dc.contributor.authorLatteshttp://lattes.cnpq.br/8974251614478187pt_BR
dc.contributor.advisorCo1Moll Neto, Jorge Neval-
dc.contributor.advisorCo1Latteshttp://lattes.cnpq.br/5113998301069032pt_BR
dc.contributor.referee1Cagy, Maurício-
dc.contributor.referee2Sanchez, Tiago Arruda-
dc.contributor.referee3Braga, Antônio de Pádua-
dc.description.resumoDurante as últimas décadas, um grande esforço vem sendo empreendido no sentido de identificar marcadores fisiológicos objetivos dos estados emocionais subjetivos. Este trabalho apresenta um protocolo experimental para indução das emoções ternura e angústia que utiliza uma estimulação multimodal com a combinação de um cenário de realidade virtual com músicas. O protocolo foi aplicado em coletas de neurofeedback utilizando imagens de ressonância magnética funcional que mostraram ser possível ativar regiões cerebrais relacionadas com as emoções estudadas. Posteriormente, foi realizado um novo estudo sobre o protocolo com coletas de sinais eletroencefalográficos (EEG), cujos dados foram utilizados em análises off-line com redes neurais artificiais. Os resultados demonstraram ser possível distinguir estados emocionais complexos usando características dos sinais de EEG com acurácias máximas acima de 90%. Além disto, permitiram uma melhor compreensão sobre os mecanismos de regulação emocional voluntária e seus correlatos neurais, podendo contribuir para o desenvolvimento de novas ferramentas e/ou equipamentos na área neurotecnológica.pt_BR
dc.publisher.countryBrasilpt_BR
dc.publisher.departmentInstituto Alberto Luiz Coimbra de Pós-Graduação e Pesquisa de Engenhariapt_BR
dc.publisher.programPrograma de Pós-Graduação em Engenharia Biomédicapt_BR
dc.publisher.initialsUFRJpt_BR
dc.subject.cnpqCNPQ::ENGENHARIAS::ENGENHARIA BIOMEDICApt_BR
dc.embargo.termsabertopt_BR
Appears in Collections:Engenharia Biomédica

Files in This Item:
File Description SizeFormat 
BrunoRaphaelPastorDeMelo.pdf9.41 MBAdobe PDFView/Open


Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.