Por favor, use este identificador para citar o enlazar este ítem:
http://hdl.handle.net/11422/19377
Registro completo de metadatos
| Campo DC | Valor | Lengua/Idioma |
|---|---|---|
| dc.contributor.advisor | Capron, Bruno Didier Olivier | - |
| dc.contributor.author | Vieira, Vinícius Ribeiro | - |
| dc.contributor.author | Ferreira, Jonny Farias Vicente | - |
| dc.date.accessioned | 2022-12-14T19:22:04Z | - |
| dc.date.available | 2023-12-21T03:09:40Z | - |
| dc.date.issued | 2022-11-23 | - |
| dc.identifier.uri | http://hdl.handle.net/11422/19377 | - |
| dc.language | por | pt_BR |
| dc.publisher | Universidade Federal do Rio de Janeiro | pt_BR |
| dc.rights | Acesso Aberto | pt_BR |
| dc.subject | Inteligência artificial | pt_BR |
| dc.subject | Reinforcement learning | pt_BR |
| dc.title | Desenvolvimento e aplicação de uma metodologia para a implementação de um controlador baseado em aprendizado por reforço do nível de um tanque a partir da simulação | pt_BR |
| dc.type | Trabalho de conclusão de graduação | pt_BR |
| dc.contributor.advisorLattes | http://lattes.cnpq.br/3006635957267883 | pt_BR |
| dc.contributor.authorLattes | http://lattes.cnpq.br/9536668836352750 | pt_BR |
| dc.contributor.referee1 | Alberton, Kese Pontes Freitas | - |
| dc.contributor.referee1Lattes | http://lattes.cnpq.br/6508408949800887 | pt_BR |
| dc.contributor.referee2 | Torraca Neto, José Rodrigues | - |
| dc.contributor.referee2Lattes | http://lattes.cnpq.br/5656727173285055 | pt_BR |
| dc.contributor.referee3 | Viana, Marcelo Mendes | - |
| dc.contributor.referee3Lattes | http://lattes.cnpq.br/2879216880730517 | pt_BR |
| dc.description.resumo | Os avanços computacionais dos últimos 50 anos permitiram a elevação da inteligência artificial a novos patamares. Nesse contexto, surgiu o reinforcement learning: uma metodologia que permite aprender a ação a ser tomada e mapear situações de forma a realizar uma tarefa. Nos dias de hoje, essa metodologia pode ser encontrada em diversas áreas, como robótica, finanças, marketing e controle e automação, como ilustra este projeto. Este trabalho utiliza desta técnica para desenvolver uma metodologia em Python com as bibliotecas Numpy, Scipy e Pandas baseada em três passos para implementar um controlador de nível de tanque e aplicá-lo em simulações de sistemas diferentes aos quais fora treinado com o objetivo de avaliar a influência do aprendizado online no seu desempenho. O primeiro passo se tratou do treinamento offline do controlador. Já o segundo passo, foi realizado o treinamento online do controlador no sistema de pior desempenho. Por fim, no terceiro passo foi feito a comparação entre a resposta do controlador referente aos dois treinamentos. Os resultados evidenciam a robustez do controlador, adaptando-se aos diferentes cenários, assim como a melhor resposta que o aprendizado online pode proporcionar. | pt_BR |
| dc.publisher.country | Brasil | pt_BR |
| dc.publisher.department | Escola de Química | pt_BR |
| dc.publisher.initials | UFRJ | pt_BR |
| dc.subject.cnpq | CNPQ::ENGENHARIAS::ENGENHARIA QUIMICA::TECNOLOGIA QUIMICA | pt_BR |
| dc.embargo.terms | aberto | pt_BR |
| Aparece en las colecciones: | Engenharia Química | |
Ficheros en este ítem:
| Fichero | Descripción | Tamaño | Formato | |
|---|---|---|---|---|
| VRVieira.pdf | 454.99 kB | Adobe PDF | Visualizar/Abrir |
Los ítems de DSpace están protegidos por copyright, con todos los derechos reservados, a menos que se indique lo contrario.