Por favor, use este identificador para citar o enlazar este ítem:
http://hdl.handle.net/11422/26182
| Especie: | Dissertação |
| Título : | Métodos de otimização aplicados à estatística |
| Autor(es)/Inventor(es): | Calixto, Anderson de Oliveira |
| Tutor: | Silva, Ralph dos Santos |
| Tutor : | Mirandola, Heudson Tosta |
| Resumen: | Nesta dissertação, considera-se a interseção entre as áreas dos métodos de otimização e da estimação de parâmetros em modelos estatísticos. Trabalha-se essa interseção em duas vias. Na primeira, realiza-se um estudo de caso na área dos métodos de otimização, por meio dos algoritmos do gradiente descendente, gradiente acelerado, gradiente acelerado de alta ordem e Newton-Raphson, e são estudadas as taxas de convergência teóricas das sequências numéricas geradas por esses algoritmos. Para a segunda via, realiza-se um estudo de caso na área dos modelos estatísticos, fazendo uso dos modelos lineares generalizados, e é analisado o processo de estimação de parâmetros nessa classe de modelos via logaritmo da função de verossimilhança. Por fim, é concretizada a interseção entre essas áreas, implementando os estimadores de máxima verossimilhança para o modelo da regressão Logística. Por intermédio da análise empírico-estatística dos métodos de otimização em estudo, chega-se à conclusão de que o método do gradiente acelerado de alta ordem, quando faz o uso da informação de uma derivada da função objetivo, tem uma performance empírica competitiva em relação aos demais métodos de primeira ordem, quando considerada a taxa de convergência empírica e o tempo de execução, apesar de teoricamente ter uma taxa de convergência inferior ao método de Newton-Raphson, abrindo a possibilidade de trabalhos futuros para a investigação analítica desse fenômeno. |
| Resumen: | In this thesis, we study an intersection between the areas of optimization methods and the statistical models. We work in this intersection in two ways. First, we take as a case study, in the field of optimization methods, the gradient descent, accelerated gradient descent, high-order accelerated gradient and Newton-Raphson and we study the theoretical convergence rates of the sequences generated by these methods. Second, we take as a case study, in the field of statistical models, the generalized linear models and studies their estimation process via logarithm of the likelihood function. Finally, to consolidate the intersection between these areas, we implemented the maximum likelihood estimators for the logistic regression model. Through the empirical statistical analysis of the optimization methods under study, we concluded that the high-order accelerated gradient method, when it uses information from one derivative of the objective function, has an empirical performance superior to the other methods of first order when we look to the empirical rates of convergence and the run times, despite theoretically having a convergence rate lower than the Newton-Raphson method. Thus opening the possibility of future work to an analytical investigation of this phenomenon. |
| Materia: | Algoritmos Estimação de parâmetros Modelos lineares generalizados Algorithms Parameter estimation Generalized linear models |
| Materia CNPq: | CNPQ::CIENCIAS EXATAS E DA TERRA::PROBABILIDADE E ESTATISTICA::ESTATISTICA |
| Programa: | Programa de Pós-Graduação em Estatística |
| Unidade de producción: | Instituto de Matemática |
| Editor: | Universidade Federal do Rio de Janeiro |
| Fecha de publicación: | 2020 |
| País de edición : | Brasil |
| Idioma de publicación: | por |
| Tipo de acceso : | Acesso Aberto |
| Aparece en las colecciones: | Estatística |
Ficheros en este ítem:
| Fichero | Descripción | Tamaño | Formato | |
|---|---|---|---|---|
| PPGE_M_Calixto_compressed.pdf | 477.27 kB | Adobe PDF | Visualizar/Abrir |
Los ítems de DSpace están protegidos por copyright, con todos los derechos reservados, a menos que se indique lo contrario.