Please use this identifier to cite or link to this item:
http://hdl.handle.net/11422/26182
| Type: | Dissertação |
| Title: | Métodos de otimização aplicados à estatística |
| Author(s)/Inventor(s): | Calixto, Anderson de Oliveira |
| Advisor: | Silva, Ralph dos Santos |
| Co-advisor: | Mirandola, Heudson Tosta |
| Abstract: | Nesta dissertação, considera-se a interseção entre as áreas dos métodos de otimização e da estimação de parâmetros em modelos estatísticos. Trabalha-se essa interseção em duas vias. Na primeira, realiza-se um estudo de caso na área dos métodos de otimização, por meio dos algoritmos do gradiente descendente, gradiente acelerado, gradiente acelerado de alta ordem e Newton-Raphson, e são estudadas as taxas de convergência teóricas das sequências numéricas geradas por esses algoritmos. Para a segunda via, realiza-se um estudo de caso na área dos modelos estatísticos, fazendo uso dos modelos lineares generalizados, e é analisado o processo de estimação de parâmetros nessa classe de modelos via logaritmo da função de verossimilhança. Por fim, é concretizada a interseção entre essas áreas, implementando os estimadores de máxima verossimilhança para o modelo da regressão Logística. Por intermédio da análise empírico-estatística dos métodos de otimização em estudo, chega-se à conclusão de que o método do gradiente acelerado de alta ordem, quando faz o uso da informação de uma derivada da função objetivo, tem uma performance empírica competitiva em relação aos demais métodos de primeira ordem, quando considerada a taxa de convergência empírica e o tempo de execução, apesar de teoricamente ter uma taxa de convergência inferior ao método de Newton-Raphson, abrindo a possibilidade de trabalhos futuros para a investigação analítica desse fenômeno. |
| Abstract: | In this thesis, we study an intersection between the areas of optimization methods and the statistical models. We work in this intersection in two ways. First, we take as a case study, in the field of optimization methods, the gradient descent, accelerated gradient descent, high-order accelerated gradient and Newton-Raphson and we study the theoretical convergence rates of the sequences generated by these methods. Second, we take as a case study, in the field of statistical models, the generalized linear models and studies their estimation process via logarithm of the likelihood function. Finally, to consolidate the intersection between these areas, we implemented the maximum likelihood estimators for the logistic regression model. Through the empirical statistical analysis of the optimization methods under study, we concluded that the high-order accelerated gradient method, when it uses information from one derivative of the objective function, has an empirical performance superior to the other methods of first order when we look to the empirical rates of convergence and the run times, despite theoretically having a convergence rate lower than the Newton-Raphson method. Thus opening the possibility of future work to an analytical investigation of this phenomenon. |
| Keywords: | Algoritmos Estimação de parâmetros Modelos lineares generalizados Algorithms Parameter estimation Generalized linear models |
| Subject CNPq: | CNPQ::CIENCIAS EXATAS E DA TERRA::PROBABILIDADE E ESTATISTICA::ESTATISTICA |
| Program: | Programa de Pós-Graduação em Estatística |
| Production unit: | Instituto de Matemática |
| Publisher: | Universidade Federal do Rio de Janeiro |
| Issue Date: | 2020 |
| Publisher country: | Brasil |
| Language: | por |
| Right access: | Acesso Aberto |
| Appears in Collections: | Estatística |
Files in This Item:
| File | Description | Size | Format | |
|---|---|---|---|---|
| PPGE_M_Calixto_compressed.pdf | 477.27 kB | Adobe PDF | View/Open |
Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.