Please use this identifier to cite or link to this item: http://hdl.handle.net/11422/26756

Full metadata record
DC FieldValueLanguage
dc.contributor.advisorLima, Priscila Machado Vieira-
dc.contributor.authorLima Filho, Aluizio dos Santos de-
dc.date.accessioned2025-08-18T12:08:06Z-
dc.date.available2025-08-20T03:00:09Z-
dc.date.issued2021-07-
dc.identifier.citationLIMA FILHO, Aluizio dos Santos de. Identifying classifier-relevant regions in images through weightless learning. 2021. 95 f. Dissertação (Mestrado) - Programa de Pós-Graduação em Engenharia de Sistemas e Computação, COPPE, Universidade Federal do Rio de Janeiro, Rio de Janeiro, 2021.pt_BR
dc.identifier.urihttp://hdl.handle.net/11422/26756-
dc.description.abstractThe need for eXplainable Artificial Intelligence becomes apparent as deep learning models grow in popularity and Artificial Intelligence is used in more and more areas. Many techniques have been proposed thus far to produce humanlegible explanations to the decision processes of classifiers, each solving a small piece of this enormous puzzle. One part of this, are the visual explanations, which seeks to produce images which can highlight what is the relevant content to the classifier, and clue the user in as to whether the model makes its decision on a sound basis, or at random, or even on a mistaken premise. Thus, solutions such as LIME find ways to generate theses explanations across different learning models, providing a versatile tool to better understand classification models. Although said solutions usually attempt to be as model agnostic as possible, the natural caveat is that they are better suited for some classes of problems and classifiers than others. Therefore, a number of different explainable models are needed in order to cover the vast space of possible models to explain. We introduce one such model, the Fuzzy Regression WiSARD Interpreter (FRWI), to attempt to produce higher quality explanations from WiSARD based models. Furthermore, as we need an objective, quantifiable way of gauging how different models compare, we also introduce our own Interpretation Capacity Score (ICS), a measurement process to judge the explanations produced. Under this metric as well as subjective, qualitative tests, this new FRWI approach had promising results, which could beat LIME in the tested scenarios and provide comprehensible explanations.pt_BR
dc.languageengpt_BR
dc.publisherUniversidade Federal do Rio de Janeiropt_BR
dc.rightsAcesso Abertopt_BR
dc.subjectLógica difusapt_BR
dc.subjectInteligência artificialpt_BR
dc.subjectAprendizado de máquinapt_BR
dc.subjectRedes neurais artificiaispt_BR
dc.subjectLógica fuzzypt_BR
dc.subjectProcessamento de imagenspt_BR
dc.subjectArtificial intelligencept_BR
dc.subjectMachine learningpt_BR
dc.subjectNeural networkspt_BR
dc.subjectFuzzy logicpt_BR
dc.subjectImage processingpt_BR
dc.titleIdentifying classifier-relevant regions in images through weightless learningpt_BR
dc.typeDissertaçãopt_BR
dc.contributor.advisorLatteshttp://lattes.cnpq.br/2704717555047499pt_BR
dc.contributor.authorLatteshttp://lattes.cnpq.br/5257103056443973pt_BR
dc.contributor.advisorCo1França, Felipe Maia Galvão-
dc.contributor.advisorCo1Latteshttp://lattes.cnpq.br/1097952760431187pt_BR
dc.contributor.referee1Farias, Claudio Miceli de-
dc.contributor.referee1Latteshttp://lattes.cnpq.br/6243465206463403pt_BR
dc.contributor.referee2Oliveira, Elias Silva de-
dc.contributor.referee2Latteshttp://lattes.cnpq.br/2210356035827181pt_BR
dc.description.resumoA necessidade de Inteligência Artificial Explicável se torna aparente à medida que os modelos de aprendizagem profunda crescem em popularidade e a Inteligência Artificial é usada em cada vez mais áreas. Muitas técnicas foram propostas até agora para produzir explicações legíveis para os processos de decisão dos classificadores, cada um resolvendo uma pequena peça deste enorme quebra-cabeça. Uma parte disso são as explicações visuais, que buscam produzir imagens que possam destacar o que é o conteúdo relevante para o classificador e indique ao usuário se o modelo toma sua decisão em uma base sólida, ou ao acaso, ou mesmo em uma premissa errada. Portanto, soluções como LIME encontram maneiras de gerar essas explicações em diferentes modelos de aprendizagem, fornecendo uma ferramenta versátil para compreender melhor os modelos de classificação. Embora essas soluções geralmente tentem ser o mais agnóstico possível, a advertência natural é que eles são mais adequados para algumas classes de problemas e classificadores do que outros. Portanto, uma série de modelos explicáveis diferentes são necessários para cobrir o vasto espaço de modelos possíveis para explicar. Nós apresentamos um desses modelos, o Fuzzy Regression WiSARD Interpreter (FRWI), para tentar produzir explicações de alta qualidade a partir de modelos baseados em WiSARD. Além disso, como precisamos de uma maneira objetiva e quantificável de avaliar como os diferentes modelos se comparam, também apresentamos nosso próprio Interpretation Capacity Score (ICS), uma medida para julgar as explicações produzidas. Sob esta métrica além dos subjetivos testes qualitativos, esta nova abordagem FRWI teve resultados promissores, que podem superar o LIME nos cenários testados e fornecer explicações compreensíveis.pt_BR
dc.publisher.countryBrasilpt_BR
dc.publisher.departmentInstituto Alberto Luiz Coimbra de Pós-Graduação e Pesquisa de Engenhariapt_BR
dc.publisher.programPrograma de Pós-Graduação em Engenharia de Sistemas e Computaçãopt_BR
dc.publisher.initialsUFRJpt_BR
dc.subject.cnpqCNPQ::CIENCIAS EXATAS E DA TERRA::CIENCIA DA COMPUTACAO::METODOLOGIA E TECNICAS DA COMPUTACAOpt_BR
dc.embargo.termsabertopt_BR
Appears in Collections:Engenharia de Sistemas e Computação

Files in This Item:
File Description SizeFormat 
953411.pdf1.83 MBAdobe PDFView/Open


Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.