Por favor, use este identificador para citar o enlazar este ítem: http://hdl.handle.net/11422/27329

Registro completo de metadatos
Campo DC Valor Lengua/Idioma
dc.contributor.advisorIacobelli, Giulio-
dc.contributor.authorBastos, Ismael Sampaio-
dc.date.accessioned2025-10-06T19:13:38Z-
dc.date.available2025-10-08T03:00:09Z-
dc.date.issued2025-
dc.identifier.urihttp://hdl.handle.net/11422/27329-
dc.description.abstractThis work addresses the problem of sequential decision-making, focusing specifically on the multiarmed bandit (MAB) framework. In its classical formulation, the MAB problem involves an agent facing a row of slot machines (bandits), with a limited number of pulls (arms) available. The agent’s goal is to determine a sequence of actions that maximizes the total reward. The core challenge lies in balancing the trade-off between choosing the action that currently appears to yield the highest reward and exploring lesser-known alternatives (a dilemma known as exploration versus exploitation). In this study, we explore several algorithms designed to support decision-making within the multiarmed bandit setting. We also examine an application of this theory to the problem of dynamic pricing, i.e., determining optimal selling prices for products and services. In this context, the seller takes the role of the agent who aims to sell a product by selecting from a finite set of possible prices, without prior knowledge of demand or consumer behavior. The seller must therefore adopt a strategy that enables the identification of the optimal price over time.pt_BR
dc.languageporpt_BR
dc.publisherUniversidade Federal do Rio de Janeiropt_BR
dc.rightsAcesso Abertopt_BR
dc.subjectAlgoritmospt_BR
dc.subjectExploração purapt_BR
dc.subjectPrecificaçãopt_BR
dc.subjectAlgorithmspt_BR
dc.subjectPure explorationpt_BR
dc.subjectPricingpt_BR
dc.subjectMulti-armed banditspt_BR
dc.titleAlgoritmos para multi-armed bandits: teoria e aplicação à precificação dinâmicapt_BR
dc.typeDissertaçãopt_BR
dc.contributor.advisorLatteshttp://lattes.cnpq.br/0549803760523062pt_BR
dc.contributor.authorLatteshttp://lattes.cnpq.br/0082209186627313pt_BR
dc.contributor.referee1Aguiar, Guilherme Ost de-
dc.contributor.referee1Latteshttp://lattes.cnpq.br/6602933388819992pt_BR
dc.contributor.referee2Figueiredo, Daniel Ratton-
dc.contributor.referee2Latteshttp://lattes.cnpq.br/3621433615334969pt_BR
dc.description.resumoEste trabalho versa sobre o problema da tomada de decisões sequenciais, focando especificamente no problema de multi-armed bandit. Em sua concepção clássica, o problema de multi-armed bandits é caracterizado pela existência de um agente que se encontra diante de uma fileira de máquinas caça-níquéis (bandits), possuindo um número limitado de vezes que pode puxar a alavanca (arm) das máquinas, tendo por objetivo realizar a sequência de ações que maximize a recompensa obtida. O desafio consiste em equilibrar a escolha entre a ação que parece ser a mais lucrativa até aquele momento e a busca por informações sobre outras alternativas ainda não exploradas. Esse dilema é chamado de exploração (exploration) versus explotação (exploitation). Neste trabalho estudaremos vários algoritmos para auxiliar a tomada de decisões no problema de multi-armed bandits. Veremos também uma aplicação dessa teoria ao problema de precificação dinâmica, i.e., a determinação de preços de venda ótimos para produtos e serviços. Nesse caso, o vendedor ocupa o papel do agente que deseja vender um determinado produto, possuindo um conjunto finito de possíveis preços, sem saber nem a demanda do produto nem o comportamento do consumidor, cabendo ao vendedor adotar uma estratégia que vise encontrar o preço ótimo.pt_BR
dc.publisher.countryBrasilpt_BR
dc.publisher.departmentInstituto de Matemáticapt_BR
dc.publisher.programPrograma de Pós-Graduação em Estatísticapt_BR
dc.publisher.initialsUFRJpt_BR
dc.subject.cnpqCNPQ::CIENCIAS EXATAS E DA TERRA::PROBABILIDADE E ESTATISTICApt_BR
dc.embargo.termsabertopt_BR
Aparece en las colecciones: Estatística

Ficheros en este ítem:
Fichero Descripción Tamaño Formato  
ISBastos.pdf1.33 MBAdobe PDFVisualizar/Abrir


Los ítems de DSpace están protegidos por copyright, con todos los derechos reservados, a menos que se indique lo contrario.