Please use this identifier to cite or link to this item: http://hdl.handle.net/11422/26182

Type: Dissertação
Title: Métodos de otimização aplicados à estatística
Author(s)/Inventor(s): Calixto, Anderson de Oliveira
Advisor: Silva, Ralph dos Santos
Co-advisor: Mirandola, Heudson Tosta
Abstract: Nesta dissertação, considera-se a interseção entre as áreas dos métodos de otimização e da estimação de parâmetros em modelos estatísticos. Trabalha-se essa interseção em duas vias. Na primeira, realiza-se um estudo de caso na área dos métodos de otimização, por meio dos algoritmos do gradiente descendente, gradiente acelerado, gradiente acelerado de alta ordem e Newton-Raphson, e são estudadas as taxas de convergência teóricas das sequências numéricas geradas por esses algoritmos. Para a segunda via, realiza-se um estudo de caso na área dos modelos estatísticos, fazendo uso dos modelos lineares generalizados, e é analisado o processo de estimação de parâmetros nessa classe de modelos via logaritmo da função de verossimilhança. Por fim, é concretizada a interseção entre essas áreas, implementando os estimadores de máxima verossimilhança para o modelo da regressão Logística. Por intermédio da análise empírico-estatística dos métodos de otimização em estudo, chega-se à conclusão de que o método do gradiente acelerado de alta ordem, quando faz o uso da informação de uma derivada da função objetivo, tem uma performance empírica competitiva em relação aos demais métodos de primeira ordem, quando considerada a taxa de convergência empírica e o tempo de execução, apesar de teoricamente ter uma taxa de convergência inferior ao método de Newton-Raphson, abrindo a possibilidade de trabalhos futuros para a investigação analítica desse fenômeno.
Abstract: In this thesis, we study an intersection between the areas of optimization methods and the statistical models. We work in this intersection in two ways. First, we take as a case study, in the field of optimization methods, the gradient descent, accelerated gradient descent, high-order accelerated gradient and Newton-Raphson and we study the theoretical convergence rates of the sequences generated by these methods. Second, we take as a case study, in the field of statistical models, the generalized linear models and studies their estimation process via logarithm of the likelihood function. Finally, to consolidate the intersection between these areas, we implemented the maximum likelihood estimators for the logistic regression model. Through the empirical statistical analysis of the optimization methods under study, we concluded that the high-order accelerated gradient method, when it uses information from one derivative of the objective function, has an empirical performance superior to the other methods of first order when we look to the empirical rates of convergence and the run times, despite theoretically having a convergence rate lower than the Newton-Raphson method. Thus opening the possibility of future work to an analytical investigation of this phenomenon.
Keywords: Algoritmos
Estimação de parâmetros
Modelos lineares generalizados
Algorithms
Parameter estimation
Generalized linear models
Subject CNPq: CNPQ::CIENCIAS EXATAS E DA TERRA::PROBABILIDADE E ESTATISTICA::ESTATISTICA
Program: Programa de Pós-Graduação em Estatística
Production unit: Instituto de Matemática
Publisher: Universidade Federal do Rio de Janeiro
Issue Date: 2020
Publisher country: Brasil
Language: por
Right access: Acesso Aberto
Appears in Collections:Estatística

Files in This Item:
File Description SizeFormat 
PPGE_M_Calixto_compressed.pdf477.27 kBAdobe PDFView/Open


Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.