Dissertações/Teses

Clique aqui para acessar os arquivos diretamente da Biblioteca Digital de Teses e Dissertações da UnB

2025
Dissertações
1
  • Mathews de Noronha Silveira Lisboa
  • Modelo de regressão para valores extremos bimodais

  • Orientador : CIRA ETHEOWALDA GUEVARA OTINIANO
  • MEMBROS DA BANCA :
  • CIRA ETHEOWALDA GUEVARA OTINIANO
  • ANTONIO EDUARDO GOMES
  • TEREZINHA KESSIA DE ASSIS RIBEIRO
  • VERA LUCIA TOMAZELLA
  • Data: 07/02/2025

  • Mostrar Resumo
  • Eventos climáticos extremos resultam da combinação de valores extremos de duas ou mais variáveis aleatórias climáticas. Por outro lado, quando pelo menos uma dessas variáveis apresenta características multimodais, os sistemas climáticos tornam-se mais complexos. A distribuição GEV bimodal, proposta por Otiniano (2023), surge como uma alternativa para a modelagem univariada de extremos em sistemas climáticos complexos. Neste trabalho, propomos um novo modelo de regressão que descreve a relação entre uma variável resposta de valores extremos bimodais com outras variáveis aleatórias. Esse modelo de regressão é baseado na distribuição GEV bimodal (BGEV). Uma das inovações do novo modelo de regressão BGEV é a reparametrização do parâmetro de localização em termos de sua mediana, o que facilita a interpretação dos resultados. A estimação dos parâmetros do modelo de regressão BGEV foi desenvolvida com base no método de máxima verossimilhança. O desempenho desse estimador foi avaliado a partir de estudos de simulações de Monte Carlo. Por fim, o modelo de regressão BGEV foi aplicado a dados climáticos da estação meteorológica A002, localizado em Goiânia, esses dados são inéditos sendo essa uma novidade apresentada neste trabalho. A adequabilidade deste ajuste foi validada com base nos resíduos quantílicos.


  • Mostrar Abstract
  • Extreme climate events result from the combination of extreme values of two or more random climate variables. On the other hand, when at least one of these variables exhibits multimodal characteristics, climate systems become more complex. The bimodal GEV distribution, proposed by Otiniano (2023), emerges as an alternative for the univariate modeling of extremes in complex climate systems. In this work, we propose a new regression model that describes the relationship between a bimodal extreme value response variable and other random variables. This regression model is based on the bimodal GEV distribution (BGEV). One of the innovations of the new BGEV regression model is the reparameterization of the location parameter in terms of its median, which facilitates the interpretation of the results. The estimation of the parameters of the BGEV regression model was developed based on the maximum likelihood method. The performance of this estimator was evaluated through Monte Carlo simulation studies. Finally, the BGEV regression model was applied to climate data from the A002 meteorological station located in Goiânia. These data are unprecedented, making this a novel contribution presented in this work. The adequacy of this fit was validated based on quantile residuals

2
  • ADRIANA PEREIRA DA SILVA
  • Redução de Viés em Estimativas de Máxima Verossimilhança Modificadas para a Distribuição Weibull de Três Parâmetros

  • Orientador : FELIPE SOUSA QUINTINO
  • MEMBROS DA BANCA :
  • FELIPE SOUSA QUINTINO
  • HELTON SAULO BEZERRA DOS SANTOS
  • ROBERTO VILA GABRIEL
  • JOSE AILTON ALENCAR ANDRADE
  • Data: 17/03/2025

  • Mostrar Resumo
  • Neste trabalho, estudamos o problema de estimação de parâmetros em modelos Weibull de três parâmetros, para os quais estimativas não finitas podem ser obtidas para a função de verossimilhança em algumas regiões do espaço paramétrico. Baseados na penalização do logaritmo da função verossimilhança modificada, propomos uma nova classe de estimadores para tal modelo de distribuições. Além de obter estimativas finitas para os parâmetros do modelo, tal procedimento possibilita uma redução no viés dos estimadores modificados. O novo método foi comparado a outros métodos encontrados na literatura através de estudos de simulações de Monte Carlo. Os resultados dos estudos das simulações mostraram que o método de penalização do vetor escore modificado apresentou melhor desempenho que o método do logaritmo da função de verossimilhança modificada. Foram apresentadas duas aplicações em dados reais, a primeira relativa a resistência de fibras de carbono, bastante estudadas na literatura, e a segunda referente a investimentos estrangeiros que geram emprego ou renda no país para concessão de autorização de residência ao imigrante, analisada nesse contexto pela primeira vez.


  • Mostrar Abstract
  • In this work, we investigate the parameter estimation problem based on the three-parameter Weibull models, for which non-finite estimates may be obtained for the log-likelihood function in some regions of the parametric space. Based on a penalization of the modified log-likelihood function, we propose a new class of estimators for this distribution. In addition to providing finite estimates for the model parameters, this procedure reduces the bias of the modified estimator. The new method is compared to others in the literature through a Monte Carlo simulation study. The simulation results showed that the modified score vector penalty method outperforms the modified log-likelihood function method. We present two applications using real data. The first relates to the resistance of carbon fibers, which has been extensively studied in the literature, and the second refers to foreign investments that generate employment or income in the country to grant a residence permit to immigrants, analyzed in this context for the first time.

3
  • FILIPE OLIVEIRA DO VALE RIBEIRO
  • Modelagem de risco de crédito via modelo de chances de riscos proporcionais

  • Orientador : EDUARDO YOSHIO NAKANO
  • MEMBROS DA BANCA :
  • EDUARDO YOSHIO NAKANO
  • ANDRE LUIZ FERNANDES CANCADO
  • FREDERICO MACHADO ALMEIDA
  • MARCELO ANGELO CIRILLO
  • Data: 20/06/2025

  • Mostrar Resumo
  • Este trabalho investiga a gestão do risco de inadimplência na concessão de crédito, uma preocupação central para instituições financeiras. O objetivo principal foi aplicar o Modelo de Chances de Riscos Proporcionais (MCRP) para a modelagem do risco de crédito, desenvolvendo um escore capaz de classificar clientes com base em sua probabilidade de inadimplência. O MCRP foi escolhido por sua flexibilidade em lidar com a natureza discreta do tempo até a inadimplência e por sua capacidade de extrair informações detalhadas sobre o comportamento do cliente. A metodologia foi validada com dados simulados, demonstrando que o escore de risco proposto é robusto, apresenta desempenho consistente e superior a técnicas tradicionais como o modelo logístico. Conclui-se que o escore é uma contribuição eficaz para a literatura de modelagem de risco de crédito, oferecendo uma ferramenta prática para a tomada de decisões na concessão de crédito.

     


  • Mostrar Abstract
  • This study addresses the critical issue of default risk in credit granting, a central concern for financial institutions. The main objective was to apply the Proportional Odds Hazard Model (POHM) for credit risk modeling, developing a score capable of classifying clients based on their probability of default. The POHM was chosen for its flexibility in handling the discrete nature of time-to-default and its ability to extract detailed information about customer behavior. The methodology was validated with simulated data, demonstrating that the proposed risk score is robust, exhibits consistent performance, and surpasses traditional techniques like the logistic model. It is concluded that the score is an effective contribution to the credit risk modeling literature, offering a practical tool for credit granting decision-making.

     

4
  • JOÃO PEDRO DE OLIVEIRA MORAIS
  • Imputação de dados no modelo de regressão de Cox na presença da verossimilhança monótona

  • Orientador : FREDERICO MACHADO ALMEIDA
  • MEMBROS DA BANCA :
  • FREDERICO MACHADO ALMEIDA
  • EDUARDO YOSHIO NAKANO
  • HELTON SAULO BEZERRA DOS SANTOS
  • FÁBIO PRATAVIERA
  • Data: 18/07/2025

  • Mostrar Resumo
  • O problema envolvendo dados faltantes, tem sido recorrente em diversas áreas de pesquisa, e em estudos de análise de sobrevivência não é diferente. Na literatura, a abordagem que tem sido considerada com alguma frequência tem sido a remoção de todas as observações com pelo menos uma célula faltante nas covariáveis. Entretanto, tal procedimento pode, de alguma forma acarretar a perda de informação. Além disso, descartar observações faltantes pode igualmente introduzir um viés nas estimativas dos parâmetros, o que pode ocasionar uma certa instabilidade nos procedimentos de estimação, como por exemplo, a ocorrência do problema da verossimilhança monótona. A motivação deste trabalho é o banco de dados de melanoma contendo mais de 50% de observações faltantes. Além disso, a eliminação de tais observações acarretou uma instabilidade nos procedimentos de estimação (não existência de estimativas finitas para os coeficientes de regressão). Atendendo o exposto anteriormente, este trabalho propõe os métodos de imputação de dados como forma de não perder informação relevante dos dados, e ao mesmo tempo, reduzir as chances de ocorrência da verossimilhança monótona. Para aferir o desempenho do modelo em termos de estimação, um estudo de simulações é proposto avaliando diferentes taxas de dados faltantes, e percentagens de amostras com verossimilhança monótona.


  • Mostrar Abstract
  • The problem of missing data has been recurrent in various research fields, and survival analysis studies are no exception. In the literature, a frequently employed strategy involves excluding all units with at least one missing value in covariates. However, such a procedure can lead to the loss of information. Moreover, discarding missing observations can also introduce bias in parameter estimation, which may result in some instability in the estimation procedures, such as the occurrence of the monotone likelihood problem. The motivation for this study comes from a melanoma dataset containing more than 50% missing observations. Furthermore, the removal of such observations resulted in instability in the estimation procedures, including the non-existence of finite estimates for the regression coefficients. In light of these issues, this study proposes the use of data imputation methods as a means to retain relevant information while simultaneously reducing the likelihood of monotone likelihood problems. To evaluate the model’s performance in terms of estimation, a simulation study is conducted, examining varying levels of missing data and the proportion of samples exhibiting monotone likelihood. Finally, a real data application is presented that includes both the monotone likelihood issue and missing data.

5
  • IGOR DE OLIVEIRA BARROS FALUHELYI
  • Previsão de séries temporais: extensão sazonal e bagging para o Modelo Theta Otimizado

  • Orientador : JOSE AUGUSTO FIORUCCI
  • MEMBROS DA BANCA :
  • JOSE AUGUSTO FIORUCCI
  • EDUARDO YOSHIO NAKANO
  • HELTON SAULO BEZERRA DOS SANTOS
  • FRANCISCO LOUZADA NETO
  • Data: 21/07/2025

  • Mostrar Resumo
  • Este trabalho teve como objetivo principal propor uma extensão sazonal para o Modelo Theta Otimizado (OTM), com o intuito de modelar adequadamente séries temporais com sazonalidade, especialmente aquelas com sazonalidade dinâmica, além de avaliar o uso da técnica de Bagging aplicada para Modelo Theta Otimizado. Primeiramente, apresentamos uma revisão bibliográfica sobre Modelos de Espaço de Estado com inovações, métodos de alisamento exponencial e o Método Theta, destacando os modelos para sua otimização. Em seguida, desenvolvemos formalmente as versões aditiva e multiplicativa do Modelo Theta Otimizado Sazonal (SOTM), bem como suas versões dinâmicas. Avaliamos empiricamente esses modelos utilizando o conjunto de dados da competição M3, comparando-os com modelos clássicos da literatura, e testamos também o uso do Bagging aplicado para o Modelo Theta Otimizado. Os resultados empíricos mostraram que as versões sazonais dinâmicas e multiplicativas do SOTM apresentaram desempenho superior, especialmente em séries com presença de sazonalidade. Além disso, a aplicação de Bagging para o Modelo Theta Otimizado proporcionou ganhos adicionais em acurácia preditiva.

     


  • Mostrar Abstract
  • This work aimed primarily to propose a seasonal extension for the Optimized Theta Model (OTM), with the purpose of adequately modeling seasonal time series, especially those exhibiting dynamic seasonality, and also to evaluate the use of Bagging applied to the Optimized Theta Model. Initially, we presented a literature review on innovation state-space models, exponential smoothing methods, and the Theta Method, highlighting the models for their optimization. Subsequently, we formally developed the additive and multiplicative versions of the Seasonal Optimized Theta Model (SOTM), as well as their dynamic versions. We empirically evaluated these models using the dataset from the M3 competition, comparing them to classical forecasting models from the literature, and also tested the use of Bagging applied to the Optimized Theta Model. Empirical results showed that the dynamic and multiplicative seasonal versions of the SOTM exhibited superior predictive performance, particularly for series with clear seasonal patterns. Furthermore, applying Bagging to the Optimized Theta Model provided additional improvements in predictive accuracy.

6
  • JOSUÉ OLIVEIRA LIMA NETO
  • Regressão Gama Inversa Robusta

  • Orientador : TEREZINHA KESSIA DE ASSIS RIBEIRO
  • MEMBROS DA BANCA :
  • TEREZINHA KESSIA DE ASSIS RIBEIRO
  • ALAN RICARDO DA SILVA
  • FELIPE SOUSA QUINTINO
  • JENIFFER JOHANA DUARTE SANCHEZ
  • FRANCISCO FELIPE DE QUEIROZ
  • Data: 25/07/2025

  • Mostrar Resumo
  • O modelo de regressão gama inverso é uma técnica estatística utilizada para modelar fenômenos aleatórios que assumem valores contínuos positivos tais como o tempo até a falha de um equipamento, o tempo entre chegadas em sistemas de fila, como em repartições públicas ou instituições financeiras, entre outros. A inferência para os parâmetros deste modelo é frequentemente baseada no procedimento de estimação por máxima verossimilhança. Entretanto, o método clássico de estimação por máxima verossimilhança pode apresentar resultados distorcidos na presença de observações atípicas. Neste trabalho, propõe-se um novo método de estimação robusto para os parâmetros do modelo de regressão gama inverso. Para motivar a necessidade de um novo estimador robusto sob esta classe de modelos, é demonstrado que a função de influência do estimador de máxima verossimilhança não é limitada. O novo procedimento inferencial que é proposto neste trabalho é baseado na classe de M-estimadores, a qual contém o estimador de máxima verossimilhança como um caso particular e é vastamente conhecida por produzir estimadores robustos. Para avaliar o desempenho e ilustrar a necessidade do novo estimador foram realizados estudos de simulações de Monte Carlo na ausência e na presença de contaminação nos dados. A partir dos estudos de simulação constatou-se que, na ausência de contaminação, o estimador de máxima verossimilhança é mais eficiente. Porém, na presença de contaminação, o estimador de máxima verossimilhança foi fortemente afetado, levando a estimativas distorcidas. Em contrapartida, o estimador proposto se mostrou superior ao estimador de máxima verossimilhança no que diz respeito à estabilidade das estimativas, as quais não foram afetadas pela contaminação nos dados.


  • Mostrar Abstract
  • The inverse gamma regression model it is a statistical technique used for modeling random phenomena characterized by positive continuous values, such as the time until equipment failure and interarrival times in queuing systems-common in public service and financial institutions. The inference for the parameters of this model is typically performed using the maximum likelihood estimation method. However, this estimation approach can lead to distorted results in the presence of atypical observations. In this work, we propose a new robust estimation method for the parameters of the inverse gamma regression model. To motivate the importance of a robust alternative, we demonstrate that the influence function of the maximum likelihood estimator is unbounded. The new inference procedure is based on the class of M-estimators, which includes the maximum likelihood estimator as a special case and is well-known for producing robust estimators. To evaluate the performance and illustrate the necessity of the proposed estimator, we conducted Monte Carlo simulations in both presence and absence of contamination in the data. From the simulation studies, it was found that in the absence of contamination, the maximum likelihood estimator is more efficient. However, in the presence of contamination, the maximum likelihood estimator was significantly affected, leading to distorted estimates. In contrast, the proposed estimator demonstrated superiority over the maximum likelihood estimator in terms of the stability of the estimates, which were not affected by data contamination.

7
  • CAROLINA GOMES CASADO DE CARVALHO
  • Estimação da Entropia Diferencial pelo Método do Kernel de Caudas Pesadas

  • Orientador : RAUL YUKIHIRO MATSUSHITA
  • MEMBROS DA BANCA :
  • RAUL YUKIHIRO MATSUSHITA
  • FELIPE SOUSA QUINTINO
  • ROBERTO VILA GABRIEL
  • REGINA CÉLIA BUENO DA FONSECA
  • Data: 30/07/2025

  • Mostrar Resumo
  • A entropia diferencial é uma medida essencial para quantificar a incerteza associada a variáveis aleatórias absolutamente contínuas. Sua estimação é particularmente desafiadora quando a distribuição populacional apresenta caudas pesadas, assimetria ou múltiplos modos. Este trabalho investiga estimadores de entropia baseados em métodos não paramétricos, com ênfase na estimativa de densidade por kernel (KDE) utilizando funções núcleo de caudas pesadas. Destacamse dois kernels: o t de Student, com graus de liberdade ajustáveis, e o kernel de Pareto simétrico, que incorpora explicitamente um parâmetro de forma que controla a cauda da densidade. São realizados estudos de simulação de Monte Carlo para avaliar o desempenho desses estimadores em diferentes cenários de caudas. Os resultados mostram que o uso de kernels com caudas pesadas, em especial o kernel de Pareto, permite maior estabilidade e precisão na estimação da entropia, mesmo em amostras pequenas. A aplicação empírica com dados financeiros ilustra o potencial do método para identificar padrões de incerteza e estruturas informacionais em séries temporais.


  • Mostrar Abstract
  • Differential entropy is a fundamental measure to quantify uncertainty in continuous random variables. Its estimation becomes particularly challenging in heavy-tailed, asymmetric, or multimodal distributions. This study explores nonparametric entropy estimators based on kernel density estimation (KDE), focusing on heavy-tailed kernels. Two kernels are considered: the Student’s t kernel, with adjustable degrees of freedom, and the symmetric Pareto kernel, which explicitly incorporates a tail parameter to control density behavior. Monte Carlo simulation studies are conducted to evaluate the performance of these estimators across various tail scenarios. Results indicate that heavy-tailed kernels—especially the Pareto kernel—enhance the accuracy and stability of entropy estimates, even with small samples. An empirical application using financial return data demonstrates the method’s capacity to capture uncertainty and informational structure in time series data.

8
  • EDUARDO DE SOUSA CARVALHO
  • Regressão beta não linear robusta

  • Orientador : TEREZINHA KESSIA DE ASSIS RIBEIRO
  • MEMBROS DA BANCA :
  • TEREZINHA KESSIA DE ASSIS RIBEIRO
  • CIRA ETHEOWALDA GUEVARA OTINIANO
  • GUILHERME SOUZA RODRIGUES
  • SILVIA LOPES DE PAULA FERRARI
  • FRANCISCO FELIPE DE QUEIROZ
  • Data: 06/08/2025

  • Mostrar Resumo
  • A regressão beta é frequentemente utilizada para modelar dados restritos ao intervalo contínuo unitário, a exemplo de taxas, frações e proporções. O método inferencial padrão utilizado para estimação dos parâmetros da regressão beta é o método da máxima verossimilhança. Entretanto, este método é sensível a observações discrepantes nos dados, podendo, em muitos casos, conduzir a resultados errôneos sobre a relação entre a resposta e as covariáveis de interesse. Nesse sentido, Ribeiro e Ferrari (2023) e, mais recentemente, Maluf, Ferrari e Queiroz (2025) propuseram métodos de estimação robustos alternativos ao método da máxima verossimilhança, objetivando reduzir a influência de observações atípicas no processo de estimação. Os referidos métodos de estimação robustos foram desenvolvidos sob modelos de regressão beta que consideram em suas estruturas de regressão preditores que são funções lineares de seus parâmetros. Assim, o presente trabalho se propõe a adaptar os métodos de estimação robustos aqui mencionados, estendendo-os a modelos de regressão beta não lineares.

    O processo teórico de obtenção dos estimadores robustos sob estruturas não lineares de regressão beta foi desenvolvido e estudado por meio de suas propriedades teóricas. Também foi mostrada uma adaptação do teste de Wald como alternativa robusta para avaliação da significância dos parâmetros da regressão. Para seleção do valor ótimo da constante de afinação necessária nos procedimentos robustos, propusemos uma adaptação ao método orientado a dados desenvolvido por Ribeiro e Ferrari (2023), com o objetivo de deixar o processo de seleção mais estável e computacionalmente mais eficiente em cenários onde se utiliza o erro padrão estimado por meio de método bootstrap.

    Foram realizados estudos de simulações de Monte Carlo e aplicação com dados simulados, por meio dos quais foi verificado que os modelos de regressão beta não lineares sob os estimadores robustos proporcionam menores viéses na presença de contaminação quando comparados aos modelos sob os estimadores tradicionais. Por fim, apresentamos outros resultados relacionados ao processo de estimação robusta e efetuamos discussões a partir de uma aplicação com dados reais.


  • Mostrar Abstract
  • Beta regression models are frequently employed for modeling data restricted to the unit interval, such as rates, fractions, and proportions. Parameter estimation in beta regression is typically performed using maximum likelihood estimation. However, this method is known to be sensitive to outliers, which can lead to biased or misleading inferences regarding the relationship between the response variable and the covariates of interest. To address this issue, Ribeiro and Ferrari (2023), and more recently, Maluf, Ferrari and Queiroz (2024), have proposed robust estimation methods as alternatives to the maximum likelihood approach. These methods aim to mitigate the influence of atypical observations on the estimation process. Their techniques were developed under beta regression models in which predictors are incorporated linearly into the regression structures. This study aims to extend these robust estimation methods to nonlinear beta regression models, thereby broadening their applicability.

    To this end, we develop a theoretical framework for obtaining robust estimators under nonlinear regression structures and investigate the theoretical properties of the resulting models. In addition, it is shown a robust adaptation of the Wald test for assessing the statistical significance of regression parameters. To select the optimal value of the tuning constant, we propose a modification of the data-driven procedure introduced by Ribeiro and Ferrari (2023), designed to improve stability and computational efficiency, particularly in settings where standard errors are estimated via bootstrap methods.

    A comprehensive Monte Carlo simulation study and an application using simulated data are conducted to evaluate the performance of the proposed methods. The results demonstrate that nonlinear beta regression models estimated via robust methods yield reduced bias in the presence of contamination when compared to models fitted with conventional estimators. Finally, we present additional findings regarding the robust estimation process and discuss their implications through an application to real-world data. 

9
  • LIGIA LOUZADA FREITAS
  • Agregação de riscos de mercado e de crédito: abordagens estocástica e de séries temporais, com cópulas

  • Orientador : CIRA ETHEOWALDA GUEVARA OTINIANO
  • MEMBROS DA BANCA :
  • CIRA ETHEOWALDA GUEVARA OTINIANO
  • RAUL YUKIHIRO MATSUSHITA
  • HERBERT KIMURA
  • GUILHERME PUMI
  • Data: 30/09/2025

  • Mostrar Resumo
  • O cálculo do risco agregado, tradicionalmente mensurado por meio do Value at Risk (VaR) e do Expected Shortfall (ES), constitui um desafio devido à complexidade das interdependências entre diferentes categorias de risco. Este trabalho apresenta uma metodologia para a agregação de riscos de mercado e de crédito, inovando ao adotar uma perspectiva centrada no risco de cada contraparte, uma abordagem ainda pouco explorada na literatura.

    Para o risco de mercado, o modelo GARCH(1,1) foi empregado com resíduos ajustados à distribuição alfa-estável, que captura efetivamente as caudas pesadas e a assimetria dos retornos financeiros. Paralelamente, o risco de crédito foi modelado com a probabilidade de default (PD) derivada de uma extensão do Modelo de Merton que incorpora saltos do Processo de Lévy no preço dos ativos, com a série de PD subsequente ajustada pelo GARCH(1,1) com inovações skew-t. Uma função cópula foi utilizada para modelar a estrutura de dependência entre as duas marginais, e a cópula t-Student revelou ser a de melhor ajuste para a maioria das empresas analisadas.

    A aplicação prática da metodologia foi ilustrada por meio de estudo de caso com dados da Localiza e e outras empresas que compõem o índice Ibovespa. Os resultados confirmaram um efeito positivo de diversificação em todos os cenários, indicando que o VaR e o ES agregados da carteira foram consistentemente inferiores à soma ingênua das medidas de risco individuais.

     


  • Mostrar Abstract
  • The calculation of aggregate risk, usually measured by Value at Risk (VaR) and Expected Shortfall (ES), poses a challenge due to the complexity of interdependencies among different risk categories. This study presents a methodology for aggregating market and credit risks, innovating by adopting a counterparty-centered perspective — an approach still scarcely explored in the literature.

    For market risk, the GARCH(1,1) model was employed with residuals fitted to the alphastable distribution, effectively capturing the heavy tails and asymmetry of financial returns. In parallel, credit risk was modeled through the probability of default (PD), derived from an extension of Merton’s Model that incorporates Lévy Process jumps in asset prices, with the subsequent PD series fitted by a GARCH(1,1) with skew-t innovations. Copula function was applied to model the dependence structure between both marginals distributions, and the Student-t copula proved to be the best fit for most of the firms analyzed.

    The practical application of the methodology was illustrated through a case study using data from Localiza and other companies from Ibovespa Index. The results confirmed a positive diversification effect across all scenarios, indicating that the aggregated portfolio VaR and ES were consistently lower than the naïve sum of the individual risk measures.

10
  • JOÃO PEDRO MOREIRA PUPE
  • Previsão do PIB estadual: Novos concorrentes versus modelos tradicionais de séries temporais

  • Orientador : HELTON SAULO BEZERRA DOS SANTOS
  • MEMBROS DA BANCA :
  • HELTON SAULO BEZERRA DOS SANTOS
  • FELIPE SOUSA QUINTINO
  • ROBERTO VILA GABRIEL
  • JEREMIAS DA SILVA LEÃO
  • Data: 18/11/2025

  • Mostrar Resumo
  • Este trabalho apresenta um estudo comparativo de diferentes modelos de previsão para a série temporal do Produto Interno Bruto (PIB) do estado de Goiás. O objetivo principal é avaliar o desempenho de modelos clássicos de séries temporais, como SARIMA e ETS, em comparação com algoritmos de aprendizado de máquina, incluindo Random Forest, Gradient Boosting Machine (GBM), XGBoost, Extreme Learning Machine (ELM), Multivariate Adaptive Regression Splines (MARS) e Principal Component Regression (PCR). A análise investiga sistematicamente o impacto de várias etapas de pré-processamento, como a dessazonalização e a diferenciação, no desempenho preditivo dos modelos. Os resultados indicam que a dessazonalização é a etapa de pré-processamento mais impactante, melhorando significativamente a acurácia da maioria dos algoritmos. Modelos clássicos como o SARIMA demonstram grande robustez, enquanto modelos de machine learning, em particular o XGBoost e o GBM, mostram-se altamente competitivos, especialmente em cenários com a série adequadamente pré-processada. O estudo conclui que a escolha ótima do modelo e das etapas de pré-processamento depende das características específicas da série temporal, e fornece um conjunto de diretrizes práticas para a previsão do PIB de Goiás.


  • Mostrar Abstract
  • This work presents a comparative study of different forecasting models for the time series of the Gross Domestic Product (GDP) of the state of Goiás. The main objective is to evaluate the performance of classical time series models, such as SARIMA and ETS, in comparison with machine learning algorithms, including Random Forest, Gradient Boosting Machine (GBM), XGBoost, Extreme Learning Machine (ELM), Multivariate Adaptive Regression Splines (MARS), and Principal Component Regression (PCR). The analysis systematically investigates the impact of various preprocessing steps, such as deseasonalization and differencing, on the predictive performance of the models. The results indicate that deseasonalization is the most impactful preprocessing step, significantly improving the accuracy of most algorithms. Classical models such as SARIMA demonstrate great robustness, while machine learning models, particularly XGBoost and GBM, prove to be highly competitive, especially in scenarios with properly preprocessed series. The study concludes that the optimal choice of model and preprocessing steps depends on the specific characteristics of the time series, and provides a set of practical guidelines for forecasting the GDP of Goiás.

11
  • JACKSON MAIKE VEIGA DE ASSIS
  • Viés na estimativa de Theil, Atkinson e no índice de dispersão para populações de mistura gama

  • Orientador : ROBERTO VILA GABRIEL
  • MEMBROS DA BANCA :
  • ROBERTO VILA GABRIEL
  • EDUARDO YOSHIO NAKANO
  • LEANDRO MARTINS CIOLETTI
  • CECÍLIA MARIA VASCONCELOS COSTA E CASTRO
  • Data: 18/11/2025

  • Mostrar Resumo
  • Estimadores obtidos pelo princípio de substituição (plug-in) são amplamente utilizados na mensuração da desigualdade, porém seu comportamento em amostras finitas pode ser sensivelmente afetado pela presença de heterogeneidade populacional. Esta dissertação analisou o viés em amostras finitas dos estimadores plug-in dos índices de Theil e de Atkinson, bem como da razão da variância pela média (VMR), sob a hipótese de que a população segue uma mistura finita de distribuições gama com parâmetro de taxa comum. A partir do teorema de independência proporção–soma de Mosimann e da relação estrutural entre as distribuições gama e Dirichlet, foi possível reescrever esses estimadores como funções de vetores Dirichlet e, com isso, deduzir expressões analíticas fechadas para seus valores esperados. Simulações de Monte Carlo e uma aplicação empírica corroboraram os resultados teóricos, evidenciando que a heterogeneidade da mistura induz viés sistemático, mesmo em tamanhos amostrais moderados. Os achados ressaltam a importância de considerar explicitamente a estrutura de mistura para obter estimativas de desigualdade mais precisas e inferências estatísticas mais robustas.


  • Mostrar Abstract
  • Plug-in estimators are widely used in the measurement of inequality, yet their finite-sample behavior can be substantially affected by population heterogeneity. This dissertation examined the finite-sample bias of plug-in estimators for the Theil and Atkinson indices, as well as for the variance-to-mean ratio (VMR), under the assumption that the population follows a finite mixture of gamma distributions with a common rate parameter. Based on Mosimann’s proportion–sum independence theorem and on the structural relationship between the Gamma and Dirichlet distributions, these estimators were rewritten as functions of Dirichlet random vectors, which enabled the derivation of closed-form expressions for their expected values. Monte Carlo simulations and an empirical application corroborated the theoretical results, showing that mixture-induced heterogeneity generates systematic bias even in moderate sample sizes. These findings highlight the importance of explicitly accounting for mixture structure in order to obtain more accurate inequality estimates and more robust statistical inference.

2024
Dissertações
1
  • HELENA SANTOS BRANDÃO
  • A Study of Non-Parametric Entropy Estimators for Analyzing Financial Data

     

  • Orientador : RAUL YUKIHIRO MATSUSHITA
  • MEMBROS DA BANCA :
  • RAUL YUKIHIRO MATSUSHITA
  • ANTONIO EDUARDO GOMES
  • EDUARDO YOSHIO NAKANO
  • ERALDO SERGIO BARBOSA DA SILVA
  • Data: 27/03/2024

  • Mostrar Resumo
  • Esta dissertação é composta por uma coletânea de quatro artigos que abordam a estimação da entropia diferencial com aplicações em dados financeiros. A obtenção de um estimador robusto e dotado de propriedades satisfatórias para tal medida mostra-se de suma importância para sua aplicação. Nesse contexto, os objetivos do presente estudo incluem realizar uma revisão abrangente dos estimadores de entropia diferencial não paramétricos e propor aprimoramentos na escolha e otimização de seu uso, visando encontrar um estimador mais adequado para dados financeiros, os quais frequentemente apresentam distribuições com caudas pesadas e mudanças de regimes.


  • Mostrar Abstract
  • In financial risk, the conventional approach has typically linked risk to the variance of a variable, such as the return of a stock or portfolio. By recognizing the constraints of this conventional method and the need for various risk metrics, alternative measures have been developed to address downside risk or extreme outcomes specifically. One such complementary metric is the uncertainty measure, which enables us to capture and describe different aspects of risk, going beyond traditional notions of variability alone. Obtaining a robust estimator with desirable properties for entropy is crucial for its practical application. In particular, our study aims to conduct a comprehensive review of non-parametric differential entropy estimators and then propose adjustments regarding the choice and optimization of their use to find an estimator with convenient properties for application in financial data, which are often characterized by distributions with heavy tails. We also conducted real-data applications to illustrate the use of the proposed measures.

2
  • Pedro Henrique Monteiro Moreira
  • Aplicação de Modelos de Regressão Logística Ordinal na Aferição do Tratamento com Plasma Convalescente para a COVID-19

     

  • Orientador : JOANLISE MARCO DE LEON ANDRADE
  • MEMBROS DA BANCA :
  • JOANLISE MARCO DE LEON ANDRADE
  • ANDRE LUIZ FERNANDES CANCADO
  • EDUARDO YOSHIO NAKANO
  • CARLA ALMEIDA VIVACQUA
  • Data: 24/05/2024

  • Mostrar Resumo
  • Objetivos: Avaliar a resposta ao tratamento da COVID-19 por meio do plasma convalescente monitorado utilizando modelos de regressão logística ordinal. Identificar se o desempenho do tratamento com plasma convalescente, no combate à COVID-19, depende mais de características do doador ou do receptor e identificar quais variáveis são as mais importantes. Métodos: Para avaliar o desempenho do tratamento com plasma convalescente foram utilizados modelos de regressão logística ordinal, incluindo modelos de chances proporcionais (MCP), modelo de chances proporcinais parciais (MCPP), modelo de razão contínua (MRC) e modelo estereótipo (ME) para verificar qual deles melhor descreve o banco de dados estudado. Resultados: O
    conjunto de dados envolveu 2.369 pacientes e foi dividido em 6 grupos menores de acordo com resultados preliminares de outros estudos. Em todos os grupos analisados houve significância, mas o ajuste não foi satisfatório. Conclusão: Não foi possível encontrar evidência estatística que comprovasse a eficácia do tratamento utilizando os modelos MCP, MCPP, MRC e ME. Todos os modelos classificaram, no mínimo, 98,7% dos casos na categoria de menor severidade, por estar em maior proporção na base, evidenciando um desequilíbrio considerável na distribuição das categorias. Considerando o conjunto de dados, as variáveis características do doador não se mostraram tão relevantes para os modelos quanto as variáveis do receptor do plasma. Neste cenário, mesmo sem um resultado preditivo satisfatório, algumas variáveis como “Grau de severidade ao ser hospitalizado” e “Score OMS ao ser hospitalizado” foram incluídas em praticamente todos os modelos. Com isso, futuras investigações podem considerar abordagens alternativas, explorando melhor tais variáveis ou a inclusão de variáveis adicionais para compreender melhor os fatores que influenciam os desfechos dos pacientes submetidos a este tipo de tratamento.


  • Mostrar Abstract
  • Objectives: To evaluate the response to COVID-19 treatment through monitored convalescent plasma using ordinal logistic regression models. To determine whether the effectiveness of convalescent plasma treatment in combating COVID-19 depends more on donor or recipient characteristics, and to identify the most important variables. Methods: To assess the performance of convalescent plasma treatment, ordinal logistic regression models were used, including proportional odds models (POM), partial proportional odds models (PPOM), continuation ratio models (CRM), and stereotype models (SM) to determine which best describes the studied dataset. Results: The dataset included 2,369 patients and was divided into 6 smaller groups according to preliminary results from other studies. In all the groups analyzed, there was significance, but the fit was not satisfactory. Conclusion: Statistical evidence to prove the effectiveness of the treatment using POM, PPOM, CRM, and SM was not found. All models classified at least 98.7% of cases in the lowest severity category, due to the higher proportion of this category in the database, highlighting a considerable imbalance in category distribution. Considering the dataset, donor characteristics were not as relevant to the models as recipient
    variables. In this scenario, even without satisfactory predictive results, some variables such as "Severity level upon hospitalization"and "WHO score upon hospitalization"were included in almost all models. Therefore, future investigations may consider alternative approaches to better explore these variables or include additional variables to better understand the factors influencing patient outcomes subjected to this type of treatment.

     

3
  • Yasmin Lírio Souza de Oliveira
  • "Distribuição Gumbel bivariada multimodal"

  • Orientador : CIRA ETHEOWALDA GUEVARA OTINIANO
  • MEMBROS DA BANCA :
  • CIRA ETHEOWALDA GUEVARA OTINIANO
  • FELIPE SOUSA QUINTINO
  • RAUL YUKIHIRO MATSUSHITA
  • VERONICA ANDREA GONZALEZ LOPEZ
  • Data: 29/05/2024

  • Mostrar Resumo
  • Distribuições bivariadas de valores extremos surgem como a distribuição limite de estatísticas extremais (máximo ou mínimo) normalizadas. Sua aplicabilidade é bem conhecida na modelagem de eventos extremos naturais. No entanto, a modelagem de eventos extremos bivariados que apresentam comportamento heterogêneo com mais de uma moda ainda é um desafio. Nessa dissertação, é proposta uma nova classe de distribuições bivariadas denominada distribuição Gumbel bivariada multimodal, cujas distribuições marginais são distribuições de valores extremos generalizadas bimodais. A flexibilidade da nova distribuição é ilustrada graficamente e algumas propriedades estatísticas são derivadas. A técnica de máxima verossimilhança é utilizada para estimar os parâmetros do modelo. Experimentos de Monte Carlo foram realizados para examinar, atavés do erro quadrático médio e erro padrão, o comportamento das estimativas de máxima verossimilhança. Finalmente, para ilustrar a aplicabilidade do nosso modelo, usamos conjuntos de dados climáticos de estações meteorológicas do Brasil e do canadá.


  • Mostrar Abstract
  • Bivariate extreme value distributions arise as the limiting distribution of normalized extreme statistics (maximum or minimum). Their applicability is well known in modeling natural extreme events. However, modeling bivariate extreme events that exhibit heterogeneous behavior with more than one mode is still a challenge. In this dissertation, a new class of bivariate distributions called multimodal bivariate Gumbel distribution is proposed, whose marginal distributions are bimodal generalized extreme value distributions. The flexibility of the new distribution is illustrated graphically and some statistical properties are derived. The maximum likelihood technique is used to estimate the parameters of the model. Monte Carlo experiments were conducted to examine the behavior of the maximum likelihood estimates through mean squared error and standard error. Finally, to illustrate the applicability of our model, we use climatic data sets from meteorological stations in Brazil and Canada.

4
  • LUCAS DE MORAES BASTOS
  • TRI Profundo: uma aplicação de métodos de redes neurais profundas à Teoria de Resposta ao Item

  • Orientador : GUILHERME SOUZA RODRIGUES
  • MEMBROS DA BANCA :
  • GUILHERME SOUZA RODRIGUES
  • ANTONIO EDUARDO GOMES
  • JOSE AUGUSTO FIORUCCI
  • DALTON FRANCISCO DE ANDRADE
  • Data: 12/06/2024

  • Mostrar Resumo
  • Este trabalho buscou um novo método para a estimação do nível de conhecimento de alunos, no contexto de TRI para estimação da habilidade latente, o que foi feito ao criar um modelo de redes neurais capaz de utilizar algoritmos de aprendizado de máquina a fim de estimar os parâmetros do ML3. Essa rede foi aplicada ao Exame Nacional do Ensino Médio (Enem), resultando em estimativas mais precisas do que alcançado por métodos tradicionais. Também faz parte do escopo deste trabalho a replicação dos métodos oficiais de correção e atribuição de notas aos alunos em uma linguagem aberta.
    O trabalho é introduzido por uma contextualização do que é o Exame Nacional do Ensino Médio, destacando sua relevância para a população e para a educação do país. Os métodos utilizados na correção desse exame são indicados, com observações acerca de suas limitações intrínsecas. Então, métodos de inteligência artificial são ilustrados, demonstrando sua abrangência e grande utilidade, e, em sequência, a utilização desses métodos em Teoria de Resposta ao Item, na área que está sendo denominada TRI Profunda, sendo este trabalho uma expansão dos modelos atualmente disponíveis e sua aplicação aos dados do Enem. Em seguida, a revisão de literatura busca cadenciar o surgimento da TRI Profunda, tratando
    inicialmente da própria TRI e de redes neurais profundas, para mostrar como o modelo tradicional de 3 parâmetros (ML3) pode ser escrito como uma rede neural. Então, é mostrado sucintamente o modelo de TRI Profunda de Tsutsumi et. al (2021) e o que seriam positional encoders, método utilizado mais à frente. Ainda como parte da revisão, são resumidas informações sobre o método de estimação utilizado pelo Inep e sobre as bases de dados disponibilizadas publicamente e que foram o escopo de análise deste trabalho.
    O Capítulo seguinte apresenta os dois métodos propostos para tratar dados binários originados de respostas de alunos a um teste: ML3 Raso (Shallow 3PL) e ML3 Profundo (Deep 3PL), buscando extender os modelos previamente revisados, especialmente no caso deste último, que se deriva mais diretamente do modelo de Tsutsumi et al. (2021). Os modelos utilizam estratégias diferentes para lidar com o grande volume de dados de entrada, um com camadas de embedding e o outro com positional encoders.
    A Aplicação inicialmente descreve os passos percorridos neste trabalho, desde o tratamento da base de dados, indicando os softwares e métodos utilizados. Então são apresentados os resultados, primeiramente comparando o alcançado pelo Inep utilizando o software proprietário BILOG e sua replicação no mirt, pacote de TRI disponível no R. Estes resultados são então comparados aos modelos propostos, destacando-se a performance do modelo ML3 Raso, mais preciso (com o menor EQM e perda) e maior verossimilhança das probabilidades de acerto estimadas às respostas empíricas. Os resultados alcançados em lingaguem aberta também indicam performance superior, apesar da falta de informações divulgadas sobre o método oficial de estimação.
    Por fim, esses resultados são sintetizados na Conclusão, com sugestões para trabalhos futuros, destacando-se a fixação dos parâmetros dos itens na estimação das habilidades dos alunos. Assim a estimação das notas poderá ser feita pelo algoritmo Adam, muito mais parcimonioso, em vez das aproximações e integrações (Quadratura Gaussiana) do algoritmo EM utilizado. Dessa forma, apresenta-se uma alternativa que poderia contribuir com o trabalho atualmente feito pelo Inep, tanto na questão da transparência do cálculo das notas dos alunos, como na simplicidade e maior confiabilidade da estimação conduzida pela rede neural.


  • Mostrar Abstract
  • This work aimed to provide a new method for the estimation of examinees’ abilities in the IRT context, which was done by designing a novel neural network capable of using machine learning algorithms to estimate the 3PL IRT model parameters. This network was applied to Brasil’s National High School Exam (Enem), yielding more accurate estimates than the traditional methods. It is also in the scope of this work to replicate the official methods used in the evaluation of students’ grades in an open software.

5
  • Joao Gabriel Rodrigues Reis
  • Otimização Bayesiana Multiobjetivo para Aperfeiçoar a Eficiência Computacional em Modelos de Redes Neurais.

  • Orientador : GUILHERME SOUZA RODRIGUES
  • MEMBROS DA BANCA :
  • ANDRE LUIZ FERNANDES CANCADO
  • ELIZABETH FIALHO WANNER
  • GUILHERME SOUZA RODRIGUES
  • JOSE AUGUSTO FIORUCCI
  • Data: 13/06/2024

  • Mostrar Resumo
  • Modelos de aprendizado de máquina, especialmente Redes Neurais Artificiais (RNAs), tornaram-se ferramentas indispensáveis em diversas áreas devido à sua capacidade de aprender com dados e fazer previsões ou tomar decisões. A grande flexibilidade dos modelos de RNA torna a escolha dos hiperpâmetros crucial para a obtenção do desempenho ideal. Entretanto, encontrar essa configuração pode ser uma tarefa desafiadora e computacionalmente intensiva.

    O ajuste de hiperparâmetros (hyperparameter tuning) é crucial para otimizar o desempenho de modelos de aprendizado de máquina. Diversas técnicas são empregadas para essa finalidade, sendo a Otimização Bayesiana (BO) uma das mais prevalentes. Contudo, essa abordagem tradicionalmente foca na maximização da precisão dos modelos, o que frequentemente resulta em modelos desnecessariamente complexos. Esse processo muitas vezes ignora o princípio da parcimônia, também conhecido como a navalha de Occam, que sugere a preferência por soluções mais simples quando desempenhos similares são possíveis.

    Na aplicação do princípio de parcimônia em modelos estatísticos clássicos, foram desenvolvidas várias métricas, como o AIC (Critério de Informação de Akaike) e o BIC (Critério de Informação Bayesiano). Essas métricas avaliam não apenas a precisão do modelo, mas também o número de parâmetros, buscando um equilíbrio entre complexidade e desempenho. No entanto, sua aplicabilidade é limitada em redes neurais artificiais (RNAs) devido à complexidade destes modelos. As RNAs frequentemente não possuem um conjunto único de pesos ótimos devido à sua alta capacidade de parametrização e às múltiplas soluções locais encontradas durante o treinamento. Essa característica torna desafiador determinar o número efetivo de parâmetros ou os graus de liberdade de uma RNA, o que é crucial para a aplicação do AIC e do BIC, comprometendo a validade dessas métricas para avaliar sua parcimônia. Uma abordagem adotada para contornar essa limitação foi utilizar o custo total de treinamento e avaliação da RNA como um indicativo de sua parcimônia, visando identificar o modelo mais eficiente, ou seja, que tenham alto poder preditivo sem comprometer excessivamente os recursos computacionais.

    Normalmente os algoritmos de BO focam em um único objetivo (predições mais acuradas), o que pode resultar em soluções com alto consumo de recursos. Alternativamente, a Otimização Bayesiana Multi Objetivo (MOBO) é uma generalização do BO que lida com múltiplos
    objetivos conflitantes, permitindo uma tunagem de hiperparâmetros que equilibra a precisão do modelo e o custo computacional. Este estudo investiga a eficácia da MOBO na redução dos custos computacionais totais, mantendo ao mesmo tempo a alta acurácia dos modelos, através de simulações que comparam o desempenho da MOBO com métodos tradicionais de BO e busca
    aleatória.

    A BO é uma técnica bastante popular para a tunagem de hiperparâmetros, pois é capaz de encontrar boas configurações com poucas avaliações da função objetivo. Isso é especialmente útil quando a avaliação da função é computacionalmente cara. A BO utiliza processos gaussianos para modelar a função objetivo, permitindo uma estimativa precisa das regiões promissoras no espaço de hiperparâmetros. Através do uso de funções de aquisição, a BO equilibra automaticamente a exploração de novas áreas do espaço de hiperparâmetros e a exploração de áreas já conhecidas que parecem promissoras. Isso ajuda a guiar a busca de maneira inteligente. Utilizando processos gaussianos e funções de aquisição adaptadas, a MOBO pode identificar soluções que oferecem um compromisso eficiente entre diferentes métricas de desempenho. Isso é particularmente vantajoso em cenários onde é necessário minimizar o consumo de recursos.


    Utilizando o HPOBench, uma plataforma que proporciona uma ampla gama de benchmarks específicos para otimização de hiperparâmetros, este estudo avalia a eficácia da tunagem de hiperparâmetros ao considerar simultaneamente duas funções-objetivo: acurácia e custo. Por meio de simulações, o desempenho de diversas implementações MOBO, BO e métodos de busca aleatória foram comparados. Os resultados obtidos demonstraram que o MOBO foi capaz de gerar modelos significativamente mais eficientes, reduzindo bastante o custo computacional
    sem sacrificar a precisão.


  • Mostrar Abstract
  • The optimization of hyperparameters is a crucial step in enhancing the performance of machine learning models, particularly Artificial Neural Networks (ANNs). This dissertation explores the application of Multi-Objective Bayesian Optimization (MOBO) to improve computational efficiency in neural network predictions. Traditional Bayesian Optimization (BO) focuses on a single objective, often resulting in resource-intensive solutions. MOBO, however, addresses multiple conflicting objectives, allowing for a balanced trade-off between model accuracy and computational cost. In this study, we conducted simulations using a benchmark framework HPOBench (Schneider et al., 2021) to compare the performance of MOBO with traditional BO and random search algorithms. The results demonstrate that MOBO significantly reduces total computational cost while maintaining high model accuracy.

6
  • MELQUISADEC DE SOUZA OLIVEIRA
  • "Seleção de ativos financeiros com base na estimativa de probabilidades de stress-strength: o caso de retornos seguindo distribuições GEV e TGEV"

  • Orientador : PUSHPA NARAYAN RATHIE
  • MEMBROS DA BANCA :
  • PUSHPA NARAYAN RATHIE
  • ROBERTO VILA GABRIEL
  • TEREZINHA KESSIA DE ASSIS RIBEIRO
  • JOSE AILTON ALENCAR ANDRADE
  • Data: 22/07/2024

  • Mostrar Resumo
  • A análise do comportamento estatístico dos retornos dos ativos mostrou-se uma abordagem interessante para realizar a seleção de ativos. Neste trabalho, exploramos uma abordagem de confiabilidade stress-strength para realizar a seleção de ativos com base em probabilidades do tipo P (X < Y ) quando tanto X quanto Y seguem a distribuição dos valores extremos generalizada (GEV) ou a distribuição transmutada GEV (TGEV). Derivamos novas relações analíticas e de forma fechada em termos da função de valor extremo H, que foram obtidas sob mínimas restrições de parâmetros quando comparadas com resultados semelhantes na literatura. Para mostrar o desempenho de nossos resultados, incluímos estudos de simulações de Monte-Carlo e investigamos a aplicação da medida de confiabilidade P (X < Y ) na seleção de ativos financeiros com retornos caracterizados pelas distribuições X e Y . Assim, em vez de adotar a abordagem convencional de comparar os valores esperados de X e Y com base na teoria de portfólio moderna, exploramos a métrica P (X < Y ) como uma abordagem alternativa para avaliar retornos.


  • Mostrar Abstract
  • Analyzing the statistical behavior of the assets’ returns has shown to be an interesting approach to perform asset selection. In this work, we explore a stress-strength reliability approach to perform asset selection based on probabilities of the type P (X < Y ) when both X and Y follow a Generalized Extreme Value (GEV) or a Transmuted GEV (TGEV) distribution. We derive new analytical and closed form relations in terms of the extreme value H-function, which have been obtained under fewer parameter restrictions while compared to similar results in the literature. To show the performance of our results, we include a Monte-Carlo simulation study and we investigate the application of the reliability measure P (X < Y ) in selecting financial assets with returns characterized by the distributions X and Y . Thus, instead of adopting the conventional approach of comparing the expected values of X and Y based on modern portfolio theory, we explore the metric P (X < Y ) as an alternative approach for assessing returns.

7
  • REBECA KLAMERICK LIMA
  • Avaliando o impacto de medidas de confiabilidade do tipo stress-strength com marginais extremais: aplicações em dados financeiros e hidrológicos

  • Orientador : PUSHPA NARAYAN RATHIE
  • MEMBROS DA BANCA :
  • PUSHPA NARAYAN RATHIE
  • CIRA ETHEOWALDA GUEVARA OTINIANO
  • FREDERICO MACHADO ALMEIDA
  • JOSE AILTON ALENCAR ANDRADE
  • Data: 22/07/2024

  • Mostrar Resumo
  • Em estudos de confiabilidade, estamos interessados no comportamento de um sistema quando ele interage com seu ambiente circundante. Para avaliar o comportamento do sistema em termos de confiabilidade, podemos considerar a qualidade analisadas do sistema como sua resistência e o resultado das interações como tensão. A falha é observada sempre que a tensão excede a resistência. Tomando Y como uma variável aleatória que representa a tensão (stress) que o sistema experimenta e a variável aleatória X como sua resistência (strength), a probabilidade de não falha pode ser tomada como um indicador da confiabilidade do componente e expressa como P (Y < X) = 1 − P (X < Y ). Dessa forma, neste trabalho, consideramos que X e Y seguem distribuições generalizadas de valores extremos (GEV), que representam uma família de distribuições de probabilidade contínuas amplamente aplicadas em contextos de Engenharia e Economia. Nossa contribuição lida com um cenário mais geral em que tensão e resistência possuem dependência, e cópulas são usadas para modelar a dependência entre as variáveis aleatórias envolvidas. As cópulas de Gumbel-Hougaard, Frank e Clayton foram usadas para modelar conjuntos de dados bivariados. Em cada caso, critérios de informação foram considerados para comparar as capacidades de modelagem de cada cópula. Duas aplicações económicas em conjuntos de dados reais são discutidos, bem como uma aplicação em Engenharia. Outro tema abordada neste trabalho foi a confiabilidade em um sistema multicomponente. A confiabilidade pode ser estendida para um sistema multicomponente que consiste em k componentes de resistência com uma tensão comum, ou seja, Rs,k = P (pelo menos s das (X1, · · · , Xk) excedem Y ), sendo X1, X2, · · · , Xk variáveis aleatórias independentes e idênticamente distribuídas que representam a resistência de k componentes em um sistema e seguirem uma função de distribuição acumulada comum GX (·), onde cada componente está sujeito a uma tensão aleatória independente Y , com a FDP fY (·). Dessa forma foram consideradas as leis estáveis l-máximas e as leis p-max estáveis como as distribuição para a aplicação deste estudo. Uma aplicação em conjuntos de dados reais é discutida. No geral, é descrito um quadro metodológico fácil de usar, permitindo que os profissionais o apliquem em seus próprios projetos de pesquisa.


  • Mostrar Abstract
  • In reliability studies, we are interested in the behaviour of a system when it interacts with its surrounding environment. To assess the system’s behavior in a reliability sense, we can take the system’s intrinsic quality as strength, and the outcome of interactions as stress. Failure is observed whenever the stress exceeds the strength. Taking Y as a random variable representing the stress the system experiences and the random variable X as its strength, the probability of not failing can be taken as a proxy for the reliability of the component and given as P (Y < X) = 1−P (X < Y ). This way, in the present paper it is considered that X and Y follow generalized extreme value, distributions, which represent a family of continuous probability distributions that have been extensively applied in Engineering and Economy contexts. Our contribution deals with a more general situation when stress and strength are not independent, and copulas are used to model the dependence between the involved random variables. Gumbel-Hougaard, Frank and Clayton copulas were used for modelling bivariate data sets. In each case, information criteria were considered to compare the modelling capabilities of each copula. Two economic applications on real data sets are discussed, as well as an Engineering one. Another topic addressed in this work was reliability in a multicomponent system. Reliability can be extended to a multicomponent system consisting of k resistance components with a common voltage, i.e. Rs,k = P (at least s of (X1, · · · , Xk) exceed Y ), with X1, X2, · · · , Xk independent and identically distributed random variables that represent the resistance of k components in a system and follow a common cumulative distribution function GX (·), where each component is subject to an independent random voltage Y , with the PDF fY (·). Thus, the l-maximum stable laws and the stable p-max laws were considered as the distributions for the application of this study. An application to real data sets is discussed. Overall, an easy-to-use methodological framework is described, allowing practitioners to apply it to their own research projects.

8
  • Mariana Fehr Nicácio
  • "Estatística de varredura espacial aplicada às ocorrências aeronáuticas na Aviação Civil no Território Nacional"

  • Orientador : ANDRE LUIZ FERNANDES CANCADO
  • MEMBROS DA BANCA :
  • ANDRE LUIZ FERNANDES CANCADO
  • ANTONIO EDUARDO GOMES
  • THAIS CARVALHO VALADARES RODRIGUES
  • FERNANDO LUIZ PEREIRA DE OLIVEIRA
  • Data: 28/08/2024

  • Mostrar Resumo
  • Utilizando os dados de ocorrências aeronáuticas da Aviação Civil no Brasil nos anos de 2013 a 2022, o trabalho aplica a estatística de varredura espacial (estatística Scan), proposta por Kulldorff (1997), para identificar clusters significativos dessas ocorrências. A análise envolve a construção de matrizes de distâncias entre cidades e a definição de zonas candidatas a clusters, utilizando janelas circulares através da ferramenta SatScan. Foram aplicados os modelos binomial, multinomial e ordinal, e por meio de simulações de Monte Carlo foram obtidos os p-valores, permitindo a avaliação da significância dos clusters detectados por cada modelo. Os resultados de cada modelo foram comparados, destacando a localização e a extensão dos clusters de acidentes, incidentes graves e incidentes, proporcionando insights valiosos para a prevenção e a investigação de acidentes aeronáuticos. Os resultados mostraram que o modelo binomial, que é o mais amplamente utilizado, nem sempre é o mais adequado para dados com mais de duas categorias.


  • Mostrar Abstract
  • Using aviation occurrence data from Civil Aviation in Brazil from 2013 to 2022, this study applies spatial scan statistics, proposed by Kulldorff (1997), to identify significant clusters of these occurrences. The analysis involves constructing distance matrices between cities and defining candidate cluster zones using circular windows through the SatScan tool. Binomial, multinomial, and ordinal models were applied, and Monte Carlo simulations were used to obtain p-values, allowing for the assessment of the significance of the clusters detected by each model. The results of each model were compared, highlighting the location and extent of clusters of accidents, serious incidents, and incidents, providing valuable insights for the prevention and investigation of aviation accidents. The findings showed that the binomial model, while the most widely used, is not always the most suitable for data with more than two categories.

9
  • William Edward Rappel de Amorim
  • REDES NEURAIS QUANTÍLICAS DE GRAFOS COM CODIFICADOR POSICIONAL PARA DADOS GEOGRÁFICOS

  • Orientador : GUILHERME SOUZA RODRIGUES
  • MEMBROS DA BANCA :
  • GUILHERME SOUZA RODRIGUES
  • JOSE AUGUSTO FIORUCCI
  • RAUL YUKIHIRO MATSUSHITA
  • FABRICIO AGUIAR SILVA
  • Data: 29/08/2024

  • Mostrar Resumo
  • Este trabalho propõe uma nova arquitetura chamada Redes Neurais Quantílicas de Grafos com Codificador Posicional para Dados Geográficos (PE-GQNN). Ela foi criada para melhorar a previsão espacial, integrando Redes Neurais de Grafos (GNNs) com Codificação Posicional (PE) e regressão quantílica. A PE-GQNN é projetada para superar as limitações dos modelos tradicionais, ao incorporar o contexto espacial e capturar uma ampla gama de quantis condicionais, permitindo a modelagem de incertezas de maneira mais precisa.

    Os dados geoespaciais, ou dados espaciais, contêm informações que incluem um ou mais atributos relacionados às coordenadas geográficas dos dados, geralmente definidas por latitude e longitude. Estes dados são amplamente utilizados em várias áreas, como economia, meteorologia, transporte urbano, redes sociais, plataformas de comércio eletrônico, entre outras. Um aspecto importante dos dados espaciais é a autocorrelação espacial, que se refere ao fenômeno em que pontos de dados espaciais não são estatisticamente independentes, mas sim correlacionados, especialmente em locais próximos.

    Modelos de regressão espacial tradicionais utilizam matrizes de pesos espaciais ou termos de defasagem espacial para capturar a estrutura espacial nos dados. No entanto, esses modelos frequentemente não conseguem modelar relações complexas entre as variáveis preditoras e a variável de interesse. Por outro lado, os Processos Gaussianos (GPs), que assumem uma distribuição preditiva Gaussiana, apresentam alta flexibilidade e podem capturar relações complexas, mas enfrentam desafios significativos de escalabilidade e complexidade computacional, especialmente para conjuntos de dados grandes.

    As GNNs surgiram recentemente como uma solução poderosa e escalável para aplicar redes neurais a dados estruturados em grafos. A abordagem tradicional de GNNs para dados espaciais consiste em representar os dados como um grafo, permitindo que as GNNs sejam aplicadas para aprendizado de representações e inferência. No entanto, a eficácia desta abordagem depende fortemente de como os dados espaciais são representados no grafo, e a aplicação tradicional de GNNs a dados espaciais pode não modelar efetivamente relações espaciais complexas.

    Para melhorar o desempenho preditivo, foi proposta a Rede Neural de Grafos com Codificador Posicional (PE-GNN), uma abordagem modular e flexível projetada para aplicação a dados espaciais. A PE-GNN constrói o grafo usando distâncias calculadas a partir das coordenadas geográficas e incorpora um Codificador Posicional (PE) para assimilar o contexto espacial de cada par de coordenadas. A saída do PE resulta em um embedding espacial que é concatenado com as variáveis explicativas dos nós antes da aplicação do operador GNN, que
    produz uma previsão pontual para a variável alvo.
    Entretanto, a PE-GNN está limitada a fornecer apenas previsões pontuais e não foi projetada para oferecer uma descrição probabilística completa da distribuição condicional da variável alvo. Para superar essa limitação, este trabalho propõe a PE-GQNN, que combina a abordagem PE-GNN com inovações que permitem a quantificação de incerteza ao realizar previsões, oferecendo uma descrição completa da distribuição preditiva condicional.

    A PE-GQNN inclui três inovações principais: (1) uma nova arquitetura que funde o procedimento em dois passos proposto por Kuleshov and Deshpande (2022) em um único modelo intrinsecamente calibrado, adiando a concatenação do quantil τ proposto por Si, Kuleshov, and Bishop (2022); (2) uma alteração estrutural que aplica o operador GNN apenas às características dos nós, que são então concatenadas com o embedding espacial; e (3) a introdução da média da variável alvo dos vizinhos do nó no grafo como uma característica adicional em uma camada próxima ao output.
    A PE-GQNN foi testada em três conjuntos de dados reais contendo dados espaciais. Para o conjunto de dados da Califórnia, a PE-GQNN atingiu desempenho de estado da arte, com melhorias relevantes em relação a GNN tradicional e PE-GNN. Ao compará-la com o modelo Processo Neural Condicional com Multi-Atenção Espacial (SMACNP), proposto por Bao, Zhang, and Zhang (2024), a PE-GQNN consistentemente apresentou desempenho preditivo superior com uma grande vantagem: melhor quantificação de incerteza.
    Utilizando esse mesmo conjunto de dados, as contribuições de cada inovação são reveladas ao realizar uma análise aprofundada dos resultados. A inovação τ , que corresponde à aplicação do framework de regressão quantílica proposto por Si, Kuleshov, and Bishop (2022), realizou um efeito de regularização e melhorou notavelmente a calibração das previsões de quantis, reduzindo o MPE e o MADECP. A inovação estrutural, que envolve a aplicação do operador GNN apenas nas características, é fundamental para melhorar o desempenho das previsões e melhorar a calibração, conforme evidenciado pela redução do MSE, MAE, MPE e MADECP.
    Além disso, o uso da média dos alvos dos vizinhos de treinamento como uma característica introduzida em uma das últimas camadas da rede, inspirada no método KNN, também melhorou ainda mais o modelo em termos de desempenho preditivo e calibração, apresentando uma redução substancial de MSE, MAE, MPE e MADECP. Além disso, foi verificado empiricamente que as predições da PE-GQNN não apresentaram casos de cruzamento de quantis.
    Os resultados experimentais para os outros dois conjuntos de dados demonstraram que a PE-GQNN consistentemente supera a GNN tradicional e a PE-GNN em todas as arquiteturas de GNN. Em cada conjunto de dados, as inovações da PE-GQNN levam a reduções significativas em MSE, MAE e MPE. Por outro lado, para o conjunto de dados Air Temperature, o SMACNP alcança o menor MSE e MAE, mas sofre com previsões significativamente descalibradas, refletidas por um MPE e MADECP muito mais altos em comparação com a PE-GQNN.

    Em resumo, a PE-GQNN representa um avanço significativo na modelagem de dados espaciais, combinando a flexibilidade das GNNs com a capacidade de quantificar incerteza através da regressão quantílica, oferecendo maior capacidade preditiva e uma descrição probabilística completa da distribuição condicional da variável de interesse.




  • Mostrar Abstract
  • Positional Encoder Graph Neural Networks (PE-GNNs) are a leading approach for modeling continuous spatial data. However, they often fail to produce calibrated predictive distributions, limiting their effectiveness for uncertainty quantification. We introduce the Positional Encoder Graph Quantile Neural Network (PE-GQNN), a novel method that integrates PE-GNNs, Quantile Neural Networks, and recalibration techniques in a fully nonparametric framework, requiring minimal assumptions about the predictive distributions. We propose a new network architecture that, when combined with a quantile-based loss function, yields accurate and reliable probabilistic models without increasing computational complexity. Our approach provides a flexible, robust framework for conditional density estimation, applicable beyond spatial data contexts. We further introduce a structured method for incorporating a KNN predictor into the model while avoiding data leakage through the GNN layer operation. Experiments on benchmark datasets demonstrate that PE-GQNN significantly outperforms existing state-of-the-art methods in both predictive accuracy and uncertainty quantification.

10
  • TIAGO CHANDIONA ERNESTO FRANQUE
  • "Modelo de regressão log de sobrevivências proporcionais para dados discretos com presença de censura"

  • Orientador : EDUARDO YOSHIO NAKANO
  • MEMBROS DA BANCA :
  • EDUARDO YOSHIO NAKANO
  • FREDERICO MACHADO ALMEIDA
  • HELTON SAULO BEZERRA DOS SANTOS
  • AGATHA SACRAMENTO RODRIGUES
  • Data: 30/08/2024

  • Mostrar Resumo
  • Um dos modelos de regressão mais populares na análise de dados de sobrevivência é o modelo de riscos proporcionais de Cox, cuja principal característica é considerar que as covariáveis atuem multiplicativamente na função de risco. No entanto, essa característica não pode ser satisfeita quando os tempos de sobrevivência são discretos, devido ao fato da função de risco ser limitada no intervalo (0,1). Neste contexto, este trabalho apresenta o desenvolvimento do modelo log de sobrevivências proporcionais para dados de sobrevivência discretos. Inferências dos parâmetros do modelo foram formuladas considerando dados com censura à direita e a distribuição Weibull discreta como distribuição basal dos dados. Estudos de simulação foram realizados para verificar as propriedades assintóticas dos estimadores. Ademais, procedimentos para a verificação da suposição de proporcionalidade do logaritmo da função de sobrevivência foram propostos e o modelo foi ilustrado por meio de um conjunto de dados sobre o tempo de sobrevivência de pacientes com leucemia.


  • Mostrar Abstract
  • One of the most popular regression models in survival data analysis is the Cox proportional hazards model, which considers that the covariates act multiplicatively on the risk function. However, this characteristic cannot be satisfied when survival times are discrete, due to the fact that the hazard function is limited in the interval (0,1). In this context, this work presents the development of the proportional log survival model for discrete time-to-event data. Inferences of the models parameters were formulated considering the presence of right censoring and the discrete Weibull baseline distribution. Simulation studies were carried out to check the asymptotic properties of the estimators. In addition, procedures for checking the proportional log survival assumption were proposed, and the proposed model was illustrated using a dataset on the survival time of patients with leukemia.

11
  • Vívia de Alencar Seabra
  •  

    Melhorando a Acurácia por meio de um Ensemble Eficiente de Redes Neurais em Grafos com Codificadores Posicionais Ajustados Geograficamente

  • Orientador : GUILHERME SOUZA RODRIGUES
  • MEMBROS DA BANCA :
  • GUILHERME SOUZA RODRIGUES
  • ALAN RICARDO DA SILVA
  • JOSE AUGUSTO FIORUCCI
  • FABRICIO AGUIAR SILVA
  • Data: 05/09/2024

  • Mostrar Resumo
  • A presente pesquisa investiga uma nova abordagem para melhorar a precisão preditiva e a capacidade de generalização de redes neurais em grafos (Graph Neural Networks - GNNs) aplicadas a dados espaciais. Dados espaciais oferecem insights valiosos sobre fenômenos geográficos e relações espaciais, apresentando desafios únicos que requerem metodologias analíticas dedicadas. Características como autocorrelação espacial, heterogeneidade espacial e nãoestacionaridade espacial dificultam a aplicação de técnicas convencionais de aprendizado de máquina, que geralmente assumem a independência dos pontos de dados ou relações lineares. Baseados no algoritmo estado da arte para regressão em dados espaciais proposto por (Klemmer, Safir, and Neill, 2023), as inovações propostas nesta pesquisa são as seguintes: primeiramente, introduzimos uma Função de Perda Ponderada, que implementa um mecanismo de ponderação na função de perda, permitindo que o modelo priorize o aprendizado de pontos de dados com base em sua proximidade espacial. Em segundo lugar, é proposto a Escolha Eficiente de Modelos Localizados, onde, baseados em mecanismos de clusterização, modelos locais são criados reduzindo o número de modelos necessários e aumentando a eficiência computacional. Em terceiro, é utilizado um Ensemble de Modelos Locais, combinando previsões dos múltiplos modelos localizados para suavizar erros e reduzir o impacto de imprecisões de qualquer modelo individual. Quarto, a Utilização de Pesos Pré-Treinados inicializa modelos locais com pesos de um modelo global previamente treinado, melhorando a eficiência do treinamento e fornecendo uma base robusta. Por fim, introduzimos uma Matriz de Distância com Redução Dimensional, que usa distâncias entre clusters em vez de entre todos os pontos, simplificando a carga computacional. Para avaliar a eficácia da abordagem proposta, utilizamos dois conjuntos de dados reais que contêm informações geográficas. O primeiro é o California Housing, que inclui preços de mais de 20.000 casas na Califórnia, coletados a partir do censo dos EUA de 1990 e com objetivo de previsão dos preços das casas com base em características como idade da casa e número de quartos, além de suas localizações geográficas. O segundo conjunto de dados é o Air Temperature, que contém coordenadas de 3.000 estações meteorológicas ao redor do mundo. Neste caso, a tarefa de regressão é prever as temperaturas médias a partir da precipitação média e da localização das estações. A função de perda ponderada, que prioriza o aprendizado a partir de pontos de dados com base em sua proximidade espacial, mostrou-se eficaz em melhorar a sensibilidade às variações locais, aumentando significativamente o desempenho do modelo para o conjunto de dados Air temperature. Além disso, a análise de sensibilidade revelou que aumentar o número de clusters ou a largura de banda geralmente melhora a precisão do modelo, mas até certo ponto, após o qual as melhorias se estabilizam ou diminuem. Esses achados indicam que a simples elevação desses parâmetros sem considerar suas interações pode resultar em resultados subótimos, destacando a necessidade de métodos mais sofisticados para a seleção desses valores.


  • Mostrar Abstract
  • Spatial data analysis presents unique challenges due to the inherent properties of spatial autocorrelation, heterogeneity, and non-stationarity. Traditional approaches often struggle with these complexities, leading to models that either underfit or misinterpret spatial dynamics. This work introduces an innovative approach to enhance the predictive power and generalizability of spatial data models by integrating localized modeling techniques with the advanced capabilities of Graph Neural Networks (GNNs). Our method incorporates the clustering of geographical coordinates to train localized models effectively. This approach leverages the strength of GNNs to capture and utilize complex spatial relationships. By segmenting the data into clusters, we create localized models that learn from specific spatial contexts, aiming to improve model accuracy and performance. We introduce a novel weighted loss function that prioritizes geographical proximity between clusters. Additionally, we employ pre-trained weights from a global model to initialize these localized models, which speeds up the training process and gives the models a comprehensive understanding of spatial relationships before adjusting them to fit specific local data. This work contributes to the field of spatial data analysis by providing a scalable, efficient, and effective framework for modeling complex spatial relationships.

12
  • LEONARDO SANTOS DA CRUZ
  • Multivariate asymmetric distributions on the unit hypercube: Properties and applications

  • Orientador : ROBERTO VILA GABRIEL
  • MEMBROS DA BANCA :
  • ROBERTO VILA GABRIEL
  • EDUARDO YOSHIO NAKANO
  • JOSE AUGUSTO FIORUCCI
  • CAROLINA MARCHANT
  • Data: 09/09/2024

  • Mostrar Resumo
  • A simetria é crucial na modelagem de dados, pois muitas técnicas estatísticas, como testes de hipóteses e intervalos de confiança, assumem a normalidade ou simetria dos dados. Distribuições simétricas simplificam a análise e a interpretação. Em contextos multivariados, asimetria é avaliada através de momentos de ordem superior, matrizes de covariância e funções de densidade de probabilidade, por exemplo.
    No contexto multivariado, onde a simetria está presente, algumas distribuições podem ser utilizadas para modelar os dados, como, por exemplo, distribuições esféricas e distribuições elípticas, ambas multivariadas. Porém, quando os dados apresentam algum grau de assimetria, que pode ser observado através de uma representação gráfica, por exemplo, funções classificadas de acordo com essas denominações podem não modelar de forma otimizada o conjunto de dados em estudo. Portanto, alguns erros podem ocorrer na análise decorrente do ajuste dessas distribuições.
    Em geral, a assimetria está frequentemente presente em contextos multivariados, mas mode-
    lar dados multivariados que apresentam assimetria não é uma tarefa trivial. Para lidar com essas
    características, métodos específicos foram desenvolvidos. Alguns destes métodos baseiam-se
    em abordagens originalmente criadas para dados simétricos, generalizando assim modelos pro-
    postos anteriormente. Esses modelos são conhecidos por incorporarem certo grau de assimetria
    em modelos simétricos, o que facilita a descrição e ajuste de dados que possuem essa carac-
    terística.

    O primeiro capítulo do presente trabalho apresentará ferramentas básicas e consecutivamente mais sofisticadas relacionadas à modelagem de dados multivariados, com e sem simetria. Serão definidas distribuições mais complexas, como a distribuição elíptica, e serão apresentados exemplos e resultados importantes relacionados a essas distribuições. Por fim, são discutidas distribuições que generalizam distribuições elípticas, incorporando a propriedade de modelar dados assimétricos. Estas distribuições assimétricas serão definidas e alguns exemplos serão apresentados.
    No capítulo seguinte, uma nova família de distribuições assimétricas é apresentada. Inicialmente é apresentado o modelo do qual deriva esta família de distribuições. Este modelo consiste em uma relação condicional entre variáveis aleatórias, onde são incorporados parâmetros de locação, escala, assimetria e um parâmetro adicional que pode ser utilizado para refinar o ajuste do modelo ao conjunto de dados. Nessa fase do trabalho são discutidos aspectos importantes, como a definição da função densidade de probabilidade que pode ser derivada do modelo apresentado. Também são discutidas as possíveis configurações dessas funções, destacando como elas podem, dependendo dos intervalos, assumir a forma de uma função de densidade de probabilidade já conhecida, destacando o caráter generalista do modelo. Serão exploradas outras propriedades, incluindo os critérios de escolha das funções a utilizar no modelo, alguns casos especiais da função densidade de probabilidade, a sua representação gráfica, a não identificabilidade do modelo, em determinadas condições; os quantis marginais, entre outras características relevantes. Além disso, são apresentadas justificativas matemáticas para alguns fatos discutidos ao longo do texto. Por fim, é apresentada a função de máxima verossimilhança, com a caracterização explícita desta função e suas respectivas derivadas parciais, destacando a impossibilidade de descrever explicitamente os estimadores dos parâmetros em termos de expressões analíticas. Como consequência direta, as estimativas dos parâmetros precisarão ser obtidas utilizando métodos computacionais, que serão discutidos e detalhados no capítulo seguinte.
    Na parte final do presente trabalho, são empregados estudos de simulação, bem como a aplicação de duas famílias de distribuições apresentadas no capítulo 3 em dados reais. O estudo de simulação foi realizado com versões da função de densidade de probabilidade representando a distribuição dos dados do modelo. A estimativa de máxima verossimilhança foi utilizada em conjunto com o algoritmo de Monte Carlo. As análises utilizadas para avaliar as estimativas dos parâmetros foram o viés relativo e o erro quadrático médio. Para melhor ilustrar os resultados, são apresentados gráficos que mostram o comportamento dessas duas métricas para cada um dos parâmetros. Além disso, diversas funções foram empregadas para realizar o estudo de simulação. Uma pequena seleção representativa dessas funções é apresentada no corpo principal do texto, enquanto as demais podem ser encontradas no apêndice deste trabalho.

    A aplicação aos dados reais foi realizada com um conjunto de dados reais do software R. A estatística descritiva dos dados foi apresentada e comentada. Duas funções de densidade derivadas do modelo foram então ajustadas e o ajuste é avaliado usando algumas métricas, que são brevemente apresentadas e discutidas. Após a discussão dos dados, indica-se qual distribuição melhor se ajusta ao conjunto de dados com base nos critérios considerados e nas funções G escolhidas para o modelo. Por fim, são apresentadas conclusões quanto à aplicação dos dados e à estimação dos parâmetros dentro de uma perspectiva geral do trabalho desenvolvido.


  • Mostrar Abstract
  • In this work, a family of multivariate asymmetric distributions over the unitary hypercube defined in terms of well-known symmetric elliptical distributions is proposed. Here we seek to study fundamental properties, such as the characterization of the density function for some types of distributions, as well as other properties, such as loss of identifiability, quantiles, conditional and marginal distributions, and moments. Furthermore, simulation studies were carried out to verify the asymptotic behavior of the estimated parameter values as the sample size increased. Finally, the developed model was used on real data where, using convenient metrics, the degree of quality of the model’s adjustment to real data was verified.

13
  • ESTEVAO SERGIO ZECO
  • Regressão Quantílica Multitarefa via Redes Neurais Profundas

  • Orientador : THAIS CARVALHO VALADARES RODRIGUES
  • MEMBROS DA BANCA :
  • THAIS CARVALHO VALADARES RODRIGUES
  • JOSE AUGUSTO FIORUCCI
  • RAUL YUKIHIRO MATSUSHITA
  • ANA CAROLINA CAMPANA NASCIMENTO
  • Data: 26/09/2024

  • Mostrar Resumo
  • A regressão quantílica via redes neurais tem se consolidado como uma abordagem poderosa para modelar relações não lineares entre variáveis, permitindo a estimação individual de quantis condicionais. No entanto, essa técnica enfrenta desafios quando é necessário estimar múltiplos quantis simultaneamente. Neste trabalho, propomos uma nova arquitetura para Regressão Quantílica Multitarefa via Redes Neurais Profundas, visando aprimorar tanto a precisão quanto a eficiência computacional na estimação de quantis. Baseada na arquitetura de Kuleshov e Deshpande (2022), essa nova arquitetura, denominada RQRN1E, inova ao unificar dois estágios da arquitetura original em um único estágio e ao introduzir o logito do τ diretamente na penúltima camada intermediária da rede. Nos três conjuntos de dados avaliados, os resultados evidenciaram que o modelo RQRN1E superou os modelos concorrentes, apresentando consistentemente a menor perda quantílica e a melhor cobertura para os quantis, o que reflete uma melhor precisão e calibração na estimativa dos quantis. Além disso, o RQRN1E destacou-se pela eficiência computacional, com menor tempo de processamento e rápida convergência, sem comprometer a qualidade das previsões.


  • Mostrar Abstract
  • Quantile regression via neural networks has emerged as a powerful approach for modeling nonlinear relationships between variables, allowing for the individual estimation of conditional quantiles. However, this technique faces challenges when estimating multiple quantiles simultaneously. In this work, we propose a new architecture for Multitask Quantile Regression via Deep Neural Networks, aiming to improve both accuracy and computational efficiency in quantile estimation. Based on the architecture of Kuleshov e Deshpande (2022), this new ar-chitecture, called RQRN1E, introduces innovations by unifying the two stages of the original architecture into a single stage and incorporating the logit of τ directly into the penultimate intermediate layer of the network. In the three datasets evaluated, the results showed that the RQRN1E model outperformed competing models, consistently achieving the lowest quantile loss and the best coverage for the quantiles, reflecting better accuracy and calibration in quantile estimation. Furthermore, RQRN1E excelled in computational efficiency, with reduced processing time and faster convergence, without compromising prediction quality.

14
  • JOAO VICTOR MONTEIROS DE ANDRADE
  • Family of multivariate distributions for modeling data with positive support: Properties and applications

  • Orientador : ROBERTO VILA GABRIEL
  • MEMBROS DA BANCA :
  • ROBERTO VILA GABRIEL
  • JOSE AUGUSTO FIORUCCI
  • RAUL YUKIHIRO MATSUSHITA
  • JUVÊNCIO SANTOS NOBRE
  • Data: 04/10/2024

  • Mostrar Resumo
  • Este trabalho tem como objetivo o desenvolvimento de uma nova família de distribuições elípticas multivariadas truncadas, ampliando as ferramentas de modelagem estatística para dados multivariados que exibem características como caudas pesadas e assimetria. As distribuições de Cauchy, t-Student e Normal servem de base para a construção dessas novas distribuições, oferecendo diferentes formas de captura de comportamentos e estruturas de dependência entre variáveis. A metodologia de construção envolve o uso de funções monotônicas crescentes, inversíveis e diferenciáveis, definidas no domínio dos números reais positivos, assegurando que as densidades resultantes tenham suporte nos reais positivos. Essa abordagem inovadora permite a preservação de propriedades fundamentais das distribuições elípticas, como a forma das caudas, ao mesmo tempo que incorpora distorções que ajustam a função densidade às características específicas dos dados analisados.

    A classe de distribuições proposta oferece maior flexibilidade na modelagem de comportamentos complexos de dados multivariados, sendo particularmente relevante em cenários onde as distribuições tradicionais não capturam adequadamente a dinâmica dos dados. Ao mesmo tempo, mantém a estrutura básica das distribuições elípticas, adaptando-se de maneira robusta às particularidades observadas em fenômenos empíricos. A aplicabilidade desta nova classe de distribuições é avaliada por meio de simulações de Monte Carlo e da aplicação a dados reais provenientes do Australian Institute of Sport (AIS) e de dados sobre os 50 estados dos Estados Unidos, como expectativa de vida e taxa de homicídios. Esses estudos fornecem uma avaliação prática da flexibilidade e desempenho das distribuições propostas.

    Na seção de revisão de literatura e conceitos fundamentais, descrevem-se os conceitos básicos necessários para o desenvolvimento do trabalho. Esses conceitos são essenciais para compreender os tópicos subsequentes, que envolvem modelagem estatística de distribuições multivariadas. A discussão desses fundamentos visa proporcionar ao leitor uma base sólida para o entendimento das propriedades estatísticas e dos métodos empregados na análise e modelagem dos dados.

    A seção de desenvolvimento do modelo destaca a criação de um novo modelo de distribuição assimétrica multivariada, baseado em distribuições elípticas e assimétricas. Esse modelo representa uma contribuição inédita no campo da estatística, integrando conceitos previamente explorados na literatura, mas com uma nova abordagem para lidar com a assimetria em distribuições multivariadas. A proposta amplia as possibilidades de análise e modelagem em contextos estatísticos diversos, sendo particularmente útil em aplicações onde as distribuições convencionais falham em capturar adequadamente os padrões dos dados.

    No estudo de simulação, conduzimos uma avaliação detalhada do desempenho dos estimadores de máxima verossimilhança (MLEs) no caso bivariado, aplicando diferentes funções de distorção, como Gi(x) = 1/α px/β − pβ/x, Gi(x) = log(x), Gi(x) = cosh−1(x + 1), Gi(x) = log(log(x + 1)), e Gi(x) = x − 1/x. Essas funções permitem ajustar a distribuição para diferentes comportamentos dos dados, sendo analisadas com profundidade. Resultados específicos para a função logq(x) estão detalhados no Apêndice.

    Por fim, a aplicabilidade dos modelos propostos é avaliada em dados reais, utilizando-se uma série de métricas para verificar a qualidade dos ajustes das distribuições aos dados. Para isso, são aplicados testes estatísticos bem estabelecidos, como os testes de Kolmogorov-Smirnov, Anderson-Darling e Cramér-von Mises, com o objetivo de identificar as distribuições que oferecem o melhor ajuste aos dados analisados. Esses resultados demonstram a robustez e a flexibilidade das novas distribuições, contribuindo para o avanço das técnicas de modelagem estatística multivariada.

    Este trabalho, ao propor uma nova família de distribuições elípticas multivariadas assimétricas, oferece novas perspectivas para a análise estatística de dados complexos, permitindo modelagens mais robustas e adequadas à realidade dos dados. A abordagem inovadora traz avanços significativos na modelagem de dados multivariados, com potencial para aplicações em diversas áreas da ciência e da indústria.


  • Mostrar Abstract
  • This work proposes the development of a new family of multivariate truncated elliptical distributions, aiming to expand the possibilities of statistical modeling for multivariate data with specific characteristics, such as heavy tails and asymmetry. The distributions used as a basis for the construction of the new densities are Cauchy, t-Student and Normal, which allow capturing different behaviors and dependence structures between variables. The construction of these new distributions will be performed by applying monotonic increasing, invertible and differentiable functions, defined in the domain of positive real numbers. These characteristics ensure that the resulting density has support in positive real numbers. This new class of distributions offers greater flexibility to model complex behaviors of multivariate data, preserving fundamental characteristics of elliptical distributions, such as the shape of the tails, while incorporating distortions that adjust the density function to the particularities of the studied phenomenon. This development opens new perspectives for statistical analysis, providing more robust models that are appropriate to the reality of the data. A Monte Carlo simulation study will also be carried out and applied to real data from the AIS (Australian Institute of Sport) and information on the 50 states of the United States (life expectancy and homicide rate).

15
  • MOISÉS LIMA
  • "Desenvolvimento e Aplicações do Processo Estocástico de Touchard para Contagens não-Poisson"

  • Orientador : RAUL YUKIHIRO MATSUSHITA
  • MEMBROS DA BANCA :
  • RAUL YUKIHIRO MATSUSHITA
  • GLADSTON LUIZ DA SILVA
  • ROBERTO VILA GABRIEL
  • REGINA CÉLIA BUENO DA FONSECA
  • Data: 18/10/2024

  • Mostrar Resumo
  • Apresentamos o processo estocástico de Touchard como um novo processo estocástico pontual pertencente à classe dos modelos de Poisson ponderados. Ele é obtido por meio da modificação das premissas do processo de Poisson tradicional, produzindo um sistema de diferença de equações diferencial, cuja solução está relacionada com os polinómios de Touchard. Entre as suas propriedades, o nosso modelo sugerido é um modelo flexível que pode ter em conta tanto a subdispersão ou superdispersão ou caudas pesadas e concentração de zeros que são frequentemente encontrados em dados não-Poisson. No entanto, ao contrário dos modelos estocásticos tradicionais, o processo de Touchard é gerado por incrementos não estacionários e dependentes, cujas probabilidades podem ser determinadas recursivamente. Além das suas propriedades, desenvolvemos um algoritmo de simulação para geração de contagens Touchard. Sua aplicabilidade é exemplificada através de dados de acidentes de trânsito nos condados de Queens e Kings do Estado de New York (EUA), sugerindo que o processo de Touchard seja um modelo candidato competitivo para o ajuste de contagens não-Poisson.


  • Mostrar Abstract
  • We introduce the Touchard stochastic process as a new point stochastic process belonging to the class of weighted Poisson models. It is derived by changing the assumptions of the classical Poisson process, producing a system of difference differential equations whose solution is related to Touchard polynomials. Among its properties, our suggested model is flexible and can describe underdispersion, overdispersion, heavy tails, or concentration of zeros often found in non-Poisson data. However, unlike traditional stochastic models, the Touchard process is generated by non-stationary and dependent increments, whose probabilities can be obtained recursively. In addition to discussing its properties, we developed an algorithm for simulating
    Touchard counts. We illustrate its applicability with traffic accident data from New York/USA counties (Queens and Kings), showing that the Touchard process is a competitive candidate model for describing non-Poisson counts.

16
  • Marcos Augusto Daza Barbosa
  • Bayesian Optimization for Stake Allocation in Soccer Betting

  • Orientador : GUILHERME SOUZA RODRIGUES
  • MEMBROS DA BANCA :
  • EDUARDO YOSHIO NAKANO
  • GUILHERME SOUZA RODRIGUES
  • JOSE AUGUSTO FIORUCCI
  • JOÃO BATISTA DE MORAIS PEREIRA
  • Data: 22/11/2024

  • Mostrar Resumo
  • Este trabalho apresenta métodos de otimização para alocar apostas em futebol, equipado com uma sólida modelagem probabilística dos eventos, para maximizar o retorno ajustado ao risco.
    O crescimento das plataformas de apostas online facilitou o acesso ao mercado, mas as odds oferecidas incluem margens que garantem a lucratividade das casas, reduzindo o valor esperado para o apostador. Nesse cenário, o objetivo deste projeto é identificar e explorar ineficiências de mercado, utilizando uma abordagem de otimização baseada em probabilidades.
    Diferente da maioria dos estudos, que se concentram em prever desfechos limitados, como vitória, empate ou derrota, este trabalho está equipado com a modelagem da superfície completa de probabilidades, representando todos os possíveis resultados de uma partida. Essa superfície, parametrizada a partir das odds oferecidas pelas casas de apostas, abrange uma variedade demercados, como Correct Score, Spread, Over/Under e Both Score. Com essa modelagem, é possível explorar de maneira robusta diversas oportunidades de apostas, maximizando o uso das probabilidades implícitas nas odds e proporcionando uma diversificação mais eficiente.
    A principal contribuição deste projeto é a otimização da alocação de apostas com base nessa superfície de probabilidades, por meio de diferentes funções objetivo e maneiras de obter a distribuição dos retornos. O processo de otimização utiliza métodos numéricos para determinar a melhor distribuição das apostas de acordo com a função objetivo predefinida. A alocação é feita não apenas para um jogo, mas simultaneamente para múltiplos jogos e mercados em um mesmo dia, para múltiplas casas de apostas, diversificando a carteira e permitindo o gerenciamento do risco associado.
    Uma das principais métricas utilizadas é a Sharpe Ratio, que mede o retorno ajustado ao risco. O Sharpe Ratio leva em conta o retorno esperado e a volatilidade dos retornos, permitindo que o sistema ajuste a alocação de apostas para maximizar o ganho potencial enquanto minimiza a volatilidade.
    Outro critério é o Limite Inferior de Confiança (LCL), uma variação do Sharpe Ratio, que introduz o parâmetro λ para equilibrar expectativa e risco. A otimização LCL ajusta o peso dado ao risco, permitindo maior controle sobre a volatilidade; λ é sintonizado para que a alocação de apostas busque maximizar a expectativa de retorno com o controle do risco, priorizando maior estabilidade ou retornos mais altos, conforme o caso.
    Para além das abordagens de objetivo único, foi implementada uma otimização multiobjetivo que considera simultaneamente a expectativa e o desvio padrão dos retornos. Essa abor- dagem utiliza Multi-Objective Bayesian Optimization (MOBO) para encontrar a fronteira de Pareto, um conjunto de soluções onde nenhum dos objetivos (expectativa de retorno e risco) pode ser melhorado sem sacrificar o outro.
    Além disso, o sistema conta com um procedimento de alocação percentual variável para definir o percentual do orçamento a ser apostado. Esse percentual é tratado como uma variável adicional no processo de otimização, o que permite ajustar dinamicamente a exposição ao risco em função do desempenho do modelo e das condições do mercado de apostas.
    Por fim, também foi incorporada uma técnica de otimização de retornos a longo prazo por meio de simulação de Monte Carlo, aplicando o Sharpe Ratio, para o retorno simulado em um horizonte de múltiplas rodadas de apostas, em um mesmo dia. Os métodos empregados neste estudo utilizaram a Otimização Bayesiana para as tarefas de otimização. Essa escolha se deu devido à eficácia da Otimização Bayesiana em explorar espaços de soluções complexos e encontrar pontos ideais de alocação de apostas, especialmente em situações de alta dimensionalidade e incerteza.

    Os experimentos foram conduzidos com dados de apostas coletados entre 2019 e 2024, aplicando o método de otimização selecionado a partir da superfície de probabilidades. Os testes indicaram que a aplicação do Sharpe Ratio e de outras funções objetivo resultou em multiplicações significativas do capital inicial.
    Assim, este estudo demonstra que uma combinação de modelagem probabilística e otimização multiobjetivo oferece uma abordagem promissora para desenvolver uma estratégia de apostas lucrativa e sustentável a longo prazo. Embora desafios práticos, como o monitoramento em tempo real e restrições de apostas, devam ser considerados, os resultados indicam que a abordagem pode maximizar o retorno ajustado ao risco, conceitualmente e teoricamente, aproveitando as ineficiências do mercado de apostas esportivas.

     


  • Mostrar Abstract
  • This study explores optimization methods for football betting allocation using probabilistic modeling to maximize risk-adjusted returns. As online betting markets have become increasingly accessible, bookmakers include profit margins in odds, reducing expected value for bettors. This project aims to detect and leverage market inefficiencies through a comprehensive probability surface covering multiple markets, such as Correct Score, Spread, Over/Under, and Both Teams to Score, parameterized from bookmaker odds. The primary contribution is optimizing betting allocation across these markets with various objective functions. Key metrics include the Sharpe Ratio and Lower Confidence Limit (LCL), enabling maximization of gains while managing risk. In one proposed method, a parameter representing the percentage of the budget to be bet is included directly within the optimization process, allowing dynamic adjustment of capital allocation based on model performance and market conditions. Additionally, a multi-objective Bayesian approach (MOBO) provides a Pareto frontier of solutions that balance return and risk simultaneously. We demonstrated significant gains, using Brazilian Serie A data, showing that combining probabilistic modeling with optimization methodsand led to high multiplication of initial capital, theoretically.

2023
Dissertações
1
  • PEDRO CARVALHO BROM
  • Relação entre variância e amplitude de retornos financeiros

  • Orientador : RAUL YUKIHIRO MATSUSHITA
  • MEMBROS DA BANCA :
  • RAUL YUKIHIRO MATSUSHITA
  • ALAN RICARDO DA SILVA
  • ROBERTO VILA GABRIEL
  • REGINA CÉLIA BUENO DA FONSECA
  • Data: 31/01/2023

  • Mostrar Resumo
  • Este trabalho, que está organizado em forma de coletânea de três artigos, discorre sobre a questão do truncamento da distribuição de dados passados, reconciliando essa limitação com a ocorrência de eventos futuros ilimitados. Mostramos que isso é possível mediante aplicação de uma lei de potência entre o comprimento do truncamento (ℓ) e o desvio padrão dos dados (σ) na forma ℓ = ζσβ, na qual ζ e β são coeficientes positivos. Essa abordagem é aplicável para uma ampla classe de distribuições simétricas — incluindo os vôos truncados de Lévy —, não sendo necessário especificar a forma exata da função de distribuição de probabilidade dos dados. Além disso, os momentos da distribuição podem variar no tempo. Em particular, a metodologia proposta foi aplicada em dados de retornos financeiros intradiários de taxas de câmbio de diferentes moedas, totalizando mais de 32 milhões de observações. Nesse caso, nosso trabalho propõe um novo tipo de padronização não-gaussiana, na forma z = r/σβ, no qual r é um retorno financeiro (tipicamente sujeito a clusters de volatilidade) e z é o retorno padronizado sem clusters de volatilidade.


  • Mostrar Abstract
  • This work, organized as a collection of three articles, proposes a solution to the truncation problem, reconciling past-bounded information and future-unbounded events. We show that this is possible by applying a power law relating the length of the truncation (ℓ) and the standard deviation of the data (σ) given by ℓ = ζσβ, where ζ and β are positive coefficients. This approach is applicable for a wide class of symmetric distributions—including truncated Lévy flights — as it does not require the exact form of the probability distribution function. In addition, distributional moments may vary over time. In particular, we applied the proposed methodology to intraday financial returns of exchange rates for different currencies, totaling more than 32 million observations. In this case, we propose a non-Gaussian standardization in the form z = r/σβ, where r is a financial return (typically subject to volatility clusters) and z is the standardized return without volatility clusters.

2
  • Rodrigo Marques dos Santos
  • Um método bayesiano para verificação de ajuste do modelo logístico de três parâmetros em teoria da resposta ao item.

  • Orientador : ANTONIO EDUARDO GOMES
  • MEMBROS DA BANCA :
  • ANTONIO EDUARDO GOMES
  • ANDRE LUIZ FERNANDES CANCADO
  • RAUL YUKIHIRO MATSUSHITA
  • DALTON FRANCISCO DE ANDRADE
  • Data: 27/02/2023

  • Mostrar Resumo
  • A Teoria de Resposta ao Item tem sido cada vez mais utilizada em estudos que tem como objetivo estimar o traço latente e, dentre os modelos existentes, tem-se que os logísticos são uns dos mais utilizados.Porém, cada vez mais estudos mostram que o pressuposto de que as Curvas Características dos Itens (CCI’s) seguem a forma Logística não são válidos, tornando a checagem desse pressuposto cada vez mais importante.Por esse motivo, estimar a CCI de formas alternativas e não paramétricas pode ser uma poderosa ferramenta para comparar com a CCI gerada pelo modelo logístico e, assim, permitir inferência sobre a veracidade desse pressuposto. Esse estudo propõe um teste não paramétrico que se utiliza de inferência Bayesiana, mais especificamente o método de Posterior Predictive Model Checking (PPMC) para testar essa hipótese. Para comparar com a CCI calculada pelo Modelo Logístico, foram utilizadas as regressões Isotônica e de Nadaraya-Watson para criar 6 estatísticas do teste. Foram feitas duas análises, uma utilizando uma simulação e outra aplicando esse teste a dados reais de uma aplicação do SARESP. Os resultados da simulação foram satisfatórios, com o teste indicando diferenças significativas em pouquíssimos itens que de fato seguiam o Modelo Logístico de 3 parâmetros, e conseguindo reconhecer bem os itens que tinham CCI’s não monotônicos.Apesar disso, o teste reconheceu apenas um item que era uma mistura de distribuições.Para os dados reais, os estimadores de Regressão Isotônica indicaram valores diferentes dos que foram indicados pela Regressão de Nadaraya-Watson, em sua
    maioria.


  • Mostrar Abstract
  • he Item Response Theory has been increasingly used in studies that aim to estimate the latent trait and, among the existing models, the logistic ones are the most used. However, more and more studies show that the assumption that Item Characteristic Curves (ICC’s) follow the Logistic form are not valid, making it increasingly important to check this assumption. herefore, estimating the ICC in alternative, nonparametric ways can be a powerful tool to compare with the ICC generated by the logistic model and thus allow inference about the veracity of this assumption.This study proposes a nonparametric test that uses Bayesian inference, more specifically the Posterior Predictive Model Checking (PPMC) method to test this hypothesis. To compare with the ICC calculated by the Logistic Model, Isotonic and Nadaraya-Watson regressions were used to create 6 test statistics. Two analyses were done, one using a simulated data set and the other applying this test to real data from a SARESP application. The simulation results were satisfactory, with the test indicating significant differences in very few items that actually followed the 3-parameter Logistic Model, and managing to recognize well those items that had a non-monotonic ICC. Despite this, the test recognized only one item that were mixtures of distributions.For the real data, the Isotonic Regression estimators indicated different values than those indicated by the Nadaraya-Watson Regression, for the most part of items.

3
  • Arthur Canotilho Machado
  • Computação Bayesiana Aproximada via fatoração da distribuição a posteriori

  • Orientador : GUILHERME SOUZA RODRIGUES
  • MEMBROS DA BANCA :
  • GUILHERME SOUZA RODRIGUES
  • RAUL YUKIHIRO MATSUSHITA
  • THAIS CARVALHO VALADARES RODRIGUES
  • KELLY CRISTINA MOTA GONÇALVES
  • Data: 01/03/2023

  • Mostrar Resumo
  • É comum em problemas modernos de Inferência Bayesiana se deparar comdados complexos e/ou de alta dimensão, como os que surgem no campo da genética de populações (Beaumont, Zhang e Balding, 2002), para os quais a função de verossimilhança e as distribuições marginas são difíceis de serem computadas ou até mesmo intratáveis, gerando, assim, problemas na obtenção da distribuição a posteriori. Existem diversos métodos de aproximação da distribuição a posteriori para esses tipos de casos, entre eles o Amostrador de Gibbs aproximado, proposto por Rodrigues, Nott e Sisson (2019),o qual permite a geração de amostras de uma distribuição a posteriori aproximada usando princípios da Computação Bayesiana Aproximada (ABC) e do Amostrador de Gibbs. Santos (2021) propôs um aprimoramento da técnica a partir da descorrelação prévia dos parâmetros de interesse e do uso de modelos de regressão quantílica via redes neurais no processo de aproximação das distribuições condicionais completas. Neste trabalho sugerimos a substituição do Amostrador de Gibbs aproximado por um algoritmo que aproxima distribuições definidas por uma fatorações conveniente da distribuição a posteriori. São apresentadas uma revisão da teoria e aplicações práticas comparando os métodos de Rodrigues, Nott e Sisson (2019), de Santos (2021) e o proposto neste trabalho. Foram gerados conjuntos de dados sintéticos para comparação dos métodos. O algoritmo proposto neste trabalho mostrou boa performance comparado aos seus pares, apresentando um avanço na técnica.


  • Mostrar Abstract
  • It is common in modern Bayesian inference problems to come across complex and/or high-dimensional models, such as those that arise in the field of population genetics (Beaumont Zhang, & Balding, 2002), where the likelihood function and marginal distributions are difficult or even intractable to compute, leading to problemsin obtaining the posterior distribution. There are several methods for approximating the posterior distribution for these type of cases, including the Approximate Gibbs Sampler proposed by Rodrigues, Nott, and Sisson (2019), which allows the generation ofsamples from an approximate posterior distribution using principles of Approximate Bayesian Computation (ABC) and Gibbs Sampling. Santos (2021) proposed an improvement to the technique by previously decorrelating the parameters of interest and using quantile regression models via neural networks in the process of approximating the complete conditional distributions In this work, we suggest replacing the Approximate Gibbs Sampler with an algorithm that approximates the terms of a convenient factorization ofthe posterior distribution. We present a review of the theory and practical applications comparing the methods of Rodrigues, Nott, and Sisson (2019), of Santos (2021), and the proposed in this work. Synthetic datasets were generated to compare the methods.The algorithm proposed in this work showed good performance compared to its peers.

4
  • Ricardo Torres Bispo Reis
  • Quantile-based Recalibration of Artificial Neural Networks

  • Orientador : GUILHERME SOUZA RODRIGUES
  • MEMBROS DA BANCA :
  • GUILHERME SOUZA RODRIGUES
  • JOSE AUGUSTO FIORUCCI
  • THAIS CARVALHO VALADARES RODRIGUES
  • RAFAEL IZBICKI
  • Data: 01/03/2023

  • Mostrar Resumo
  • Redes neurais artificiais (RNA) são ferramentas poderosas para predição e modelagem de dados. Embora venham se tornando ainda mais poderosas, melhorias recentes comprometeram sua calibração em favor da melhoria da acurácia de predição, fazendo assim com que sua incerteza real seja difícil de ser quantificada. Para resolvereste problema, propomos um novo método de recalibração para RNA de pós-processamento baseado em quantis. Para ilustrar as mecânicas do método, apresentamos dois exemplos. Em ambos, a recalibração reduziu o Erro Quadrático Médio em relação aos modelos originais descalibrados e ofereceu uma representação mais fidedigna do modelo generativo. Para investigar mais a fundo os efeitos do procedimento de recalibração proposto, também apresentamos um estudo de simulação comparando várias configurações de parâmetros-a recalibração melhorou com sucesso a performance em relação aos modelos-base em todos os cenários considerados. Por fim, aplicamos o método proposto a um problema de predição de preços de diamantes, onde a recalibração também foi capaz de melhorar a performance geral dos modelos.


  • Mostrar Abstract
  • Artificial neural networks (ANN) are powerful tools for prediction and data modeling. Although they are becoming ever more powerful, modern improvements have compromised their calibration in favor of enhanced prediction accuracy, thus making their true confidence harder to assess. To address this problem, we propose a new post-processing quantile-based method of recalibration for ANN. To illustrate the method's mechanics we present two toy examples. In both, recalibration reduced the Mean Squared Error over the original uncalibrated models and provided a better representation of the data generative model. To further investigate the effects of the proposed recalibration procedure, we also present a simulation study comparing various parameter configurations--the recalibration successfully improved performance over the base models in all scenarios under consideration. At last, we apply the proposed method to a problem of diamond price prediction, where it was also able toimprove the overall model performance.

5
  • Lucas José Gonçalves Freitas
  • Clusterização de textos aplicada ao tratamento de dados jurídicos desbalanceados.

  • Orientador : THAIS CARVALHO VALADARES RODRIGUES
  • MEMBROS DA BANCA :
  • THAIS CARVALHO VALADARES RODRIGUES
  • ANDRE LUIZ FERNANDES CANCADO
  • NÁDIA FELIX FELIPE DA SILVA
  • RAFAEL BASSI STERN
  • Data: 02/03/2023

  • Mostrar Resumo
  • O Supremo Tribunal Federal (STF), instância máxima do sistema judiciário brasileiro, produz, assim como tribunais de outras instâncias, imensa quantidade de dados organizados em forma de texto, por meio de decisões, petições, liminares, recursos e outros documentos legais. Tais documentos são classificados e agrupados por servidores públicos especializados em autuação e catalogação de processos judiciais, que em casos específicos usam ferramentas tecnológicas de apoio. Alguns processos que chegam ao STF, por exemplo, são classificados em um ou mais objetivos de desenvolvimento sustentável (ODS) da Agenda 2030 da Organização das Nações Unidas (ONU). Como se trata de uma tarefa repetitiva e relacionada à detecção de padrões, é possível desenvolver ferramentas baseadas em aprendizagem de máquina para tal finalidade.Neste trabalho, são propostos modelos de Processamento de Linguagem Natural (NLP) para agrupamento de processos, com objetivo de aumentar a base de dados em determinados objetivos de desenvolvimento sustentável (ODS) com poucas entradas naturalmente. A atividade de clusterização ou agrupamento, que tem enorme importância por si só, também é capaz de reunir entradas sem etiqueta em torno de processos já classificados por funcionários do tribunal, permitindo, assim, que novas etiquetas sejam alocadas em processos similares. Os resultados obtidos mostram que os conjuntos aumentados por clusterização podem ser utilizados em fluxos de aprendizagem supervisionada para auxílio na classificação processual, especialmente em contextos com dados desbalanceados.


  • Mostrar Abstract
  • The Federal Supreme Court (STF), the highest instance of the Brazilian judicial system, produces, as well as courts of other instances, an immense amount of data organized in text form, through decisions, petitions, injunctions, appeals and other legal documents. Such documents are classified and grouped by public employees specialized in cataloging of judicial processes, which in specific cases use technological support tools. Some processes in the STF, for example, are classified under one or more sustainable development goals (SDGs) of the United Nations (UN) 2030 Agenda. As it is a repetitive task related to pattern recognition, it is possible to develop tools based on machine learning for this purpose. In this work, Natural Language Processing (NLP) models are proposed for clustering processes, in order to increase the database on certain sustainable development goals (SDGs) with few inputs naturally. The activity of clustering, which is of enormous importance in its own right, is also able to gather unlabeled entries around cases already classified by court officials, thus allowing new labels to be allocated to similar cases. The results of the work show that cluster-augmented sets can be used in supervised learning flows to aid in the classification of legal texts, especially in contexts with unbalanced data.

6
  • Gustavo Martins Venancio Pires
  • Um modelo híbrido para séries temporais hierárquicas com múltipla sazonalidade

  • Orientador : JOSE AUGUSTO FIORUCCI
  • MEMBROS DA BANCA :
  • DIEGO CARVALHO DO NASCIMENTO
  • EDUARDO YOSHIO NAKANO
  • JOSE AUGUSTO FIORUCCI
  • PAULO HENRIQUE FERREIRA DA SILVA
  • Data: 14/03/2023

  • Mostrar Resumo
  • Esta dissertação propõe um modelo híbrido capaz de realizar previsões de séries temporais hierárquicas com múltiplas sazonalidades. Essa metodologia híbrida consiste em utilizar um modelo deMachine Learningque possua variáveis contendo metodologias estatísticas deséries temporais para gerar previsões coesas. Essa metodologia foi aplicada no banco de dados da competiçãoM5-Forecasting(2020) disponibilizada peloKaggle, em que o objetivo era prever com maior acurácia a venda diária de 3.409 produtos distribuídos em 5 níveis de hierarquia por 28 dias. Durante o trabalho foram comparadas 5 abordagens diferentes e o modelo deLight Gradient Boosting Machine(LGBM) contendo uma variável baseada na metodologia estatística TBATS (Trigonometricseasonality, Box-Cox transformation ARMA errors, Tred and Seasonal components) chegouaobter um ganho de acurácia de 27% em comparação com os modelos de LGBM sem a variável em questão. Esse modelo teria obtido a 318ª colocação na competição, ficando entreos top 6% competidores.


  • Mostrar Abstract
  • This Master’s Thesis proposes a hybrid model capable of forecasting hierarchical time series with multiple seasonality. This hybrid methodology consists of using aMachine Learningmodel that has variables containing time series statistical methodologies to generate cohesive forecasts. This methodology was applied to theM5-Forecasting(2020) competition available through Kaggle, in which the objective was to more accurately predict the daily sale of 3,409 products distributed in 5 levels of hierarchy by 28 days. During the dissertation, 5 different approaches were compared andtheLight Gradient Boosting Machine(LGBM) model containing a variable based on the TBATS (Trigonometric seasonity, Box-Cox transformation ARMA errors, Tred and Seasonal components) obtained an accuracy gain of 27% compared to the LGBM models without the variable mentioned. This model would have obtained the 318th place in the competition, being among the top 6% competitors.

7
  • Roberto de Souza Marques Buffone
  • Análise da Taxa de Acidentes Trânsito com Vítimas Usando a Regressão Beta Geograficamente Ponderada

  • Orientador : ALAN RICARDO DA SILVA
  • MEMBROS DA BANCA :
  • ALAN RICARDO DA SILVA
  • ANDRE LUIZ FERNANDES CANCADO
  • TEREZINHA KESSIA DE ASSIS RIBEIRO
  • FLÁVIO JOSÉ CRAVEIRO CUNTO
  • Data: 14/06/2023

  • Mostrar Resumo
  • A regressão linear clássica permite, de forma simples, que uma variável quantitativa contínua seja modelada a partir de outras variáveis. Porém, esse tipo de metodologia possui alguns pressupostos, como a independência entre as observações, que se ignorados trazem problemas metodológicos. Adicionalmente, nem todos os dados se adéquam à distribuição normal, necessitando assim de outros tipos de regressão para a modelagem. Com isso, a Regressão Beta Geograficamente Ponderada (RBGP) é apresentada com intuito de atribuir o fator da dependência espacial ao estudo, juntamente com a análise de taxas e proporções a partir da distribuição beta, que tem seu suporte no intervalo unitário e tem uma fácil adequabilidade, por seu ajuste flexível, aos dados estudados. Neste trabalho a RBGP foi aplicada à taxa de acidentes de trânsito com vítimas em Fortaleza-CE, entre os anos de 2009 a 2011, comparando seus resultados aos modelos globais e locais de regressão clássica e de regressão clássica com a transformação da variável resposta pela função logito e à regressão beta global. Além disso, foi desenvolvido o pacote ‘gwbr’ em R com os algoritmos necessários para a aplicação da RBGP. Ao final, conclui-se que a abordagem local com o uso da distribuição beta é um modelo viável para explicar a taxa de acidentes de trânsito com vítimas, visto a adequabilidade do modelo tanto à distribuições assimétricas, quanto à distribuições simétricas. Por conta disso, se tratando da análise de taxas, é sempre recomendado o uso da distribuição beta.


  • Mostrar Abstract
  • Classical linear regression allows, in a simple way, that a continuous quantitative variable is modeled from other variables. However, this type of methodology has certain assumptions, such as independence between observations, which if ignored can lead to methodological issues. Additionally, not all data follows a normal distribution, which leads to alternative methods for modeling. In this context, Geographically Weighted Beta Regression (GWBR) is presented with the aim of incorporating spatial dependence into the modeling, along with the analysis of rates and proportions using the beta distribution. The beta distribution, with its scope within the unit interval and its flexible nature, easily adapts to the analyzed data. In this study, GWBR was applied to the rate of traffic accidents with victims in Fortaleza-CE, Brazil, from 2009 to 2011, comparing its results to global and local models of classical regression, classical regression with logit transformation of the response variable, and global beta regression. Additionally, the ‘gwbr’ package was developed in R software, providing the necessary algorithms for GWBR application. In conclusion, it was found that the local approach using the beta distribution is a viable model for explaining the rate of traffic accidents with victims, given its suitability to both asymmetric and symmetric distributions. Therefore, when analyzing rates, the use of the beta distribution is always recommended.

8
  • MATHEUS STIVALI
  • Dois ensaios sobre a modelagem da curva de juros

  • Orientador : JOSE AUGUSTO FIORUCCI
  • MEMBROS DA BANCA :
  • JOSE AUGUSTO FIORUCCI
  • EDUARDO YOSHIO NAKANO
  • RAUL YUKIHIRO MATSUSHITA
  • GERALDO NUNES SILVA
  • Data: 12/12/2023

  • Mostrar Resumo
  • [Introdução] Entender o comportamento das taxas de juro é essencial para a gestão macroeconômica e para as decisões dos investidores privados. A taxa de juros de curto prazo é definida pela autoridade monetária de acordo com seus objetivos de política pública e essa taxa é obtida por meio de operações de mercado aberto. O comportamento das taxas de juros pagas para dívidas de prazo mais longo é influenciado pela taxa de curto prazo, mas esse é mais complexo e depende das expectativas em relação ao comportamento futuro das taxas de curto prazo e da inflação. A estrutura a termo das taxas de juros é a correspondência entre a maturidade de uma dívida (tempo até o vencimento) e o nível das taxas de juros associado a mesma, e sua representação gráfica é denominada curva de rendimentos. Esta pode assumir diferentes formas, a situação considerada normal é aquela em que as taxas de juros aumentam monotonamente com a maturidade. Curvas invertidas, em "forma de S" e humped ocorrem quando o mercado espera mudanças na taxa de curto prazo nos próximos meses ou anos. A dissertação avalia duas linhas de análise estatística da curva de juros para o Brasil: a primeira preocupada com a interpolação dos dados observados a cada dia para a estimação da curva completa, e a segunda preocupada com a extrapolação de informações passadas da curva de juros. Muitas das aplicações da curva de rendimentos dependem da relação entre maturidade e juros ser observável para todas as maturidades, o que não ocorre. Em cada dia útil são observadas apenas alguns pontos da curva que correspondem aos títulos ou contratos futuros negociados naquele dia. Daí a relevância dos exercícios implementados no segundo capítulo em que várias técnicas de interpolação são utilizadas para obtenção da curva completa. Adicionalmente, a previsão da curva de rendimentos é uma ferramenta essencial para a estruturação da dívida pública, para a condução da política monetária, e para agentes privados que também emitem títulos de dívida ou compram os mesmos. Prever a curva de juros envolveria a modelagem das séries de juros de cada maturidade. Uma forma alternativa, mais parcimoniosa, foi proposta para Diebold e Li (2006). Tal abordagem é objeto do terceiro capítulo, comparando o desempenho desse modelo com técnicas de previsão de referência. [Materiais e Métodos] Para as análises foram utilizados dados de contratos futuros de taxas de juros (DI1) negociados no Brasil entre janeiro de 2018 e abril de 2023, totalizando 1313 dias úteis. Em cada dia são negociados em torno de 38 contratos de diferentes maturidades. O segundo capítulo desenvolve uma análise comparativa de técnicas de interpolação das taxas de juros que são estimadas em cada dia incluído na amostra. Os modelos abordados neste capítulo são chamados empíricos, pois não impõem restrições derivadas de modelos teóricos (econômicos) de estrutura de termo durante o processo de estimação. São considerados os modelos: regressão polinomial, modelos de spline, regressão de Kernel, regressão local (Loess), modelo Nelson-Siegel estimado por mínimos quadrados e mínimos quadrados não-lineares e extensões desse modelo (família Nelson-Siegel). Esses modelos são avaliados em relação a: qualidade do ajuste, robustez (em relação a outliers), e suavidade. Para a avaliação da qualidade do ajuste a cada dia é construído um conjunto de treinamento (insample) e um conjunto de validação (out-of-sample). A performance no conjunto de validação é o mais relevante para a avaliação dos modelos já que esse seria o problema típico subjacente a estimação de curva de rendimentos. Para a avaliação da robustez, a curva de rendimentos de cada dia da amostra é estimada duas vezes, uma com os dados originais e outra em que o nível da taxa de juros de uma maturidade selecionada aleatoriamente foi modificada por uma perturbação de mais ou menos, também definido aleatoriamente, 2%. Tanto para a avaliação da qualidade do ajuste quanto para a robustez são utilizadas as métricas de Erro Quadrático Médio e Erro Médio Absoluto. Para a avaliação da suavidade são consideradas três métricas utilizadas na literatura baseadas na segunda derivada das funções estimadas. O terceiro capítulo se vale de estimativas dos parâmetros do modelo Nelson-Siegel feitas no segundo capítulo utilizando mínimos quadrados ordinários e mínimos quadrados não-lineares para implementar o modelo Diebold-Li. O filtro de Kalman é utilizado para avaliar a validade da interpretação dos parâmetros como variáveis latentes. As séries de estimativas são modeladas como três processos autorregressivos separados e como um vetor autorregressivo para fins de previsão. Os parâmetros preditos são então utilizados para estimar o nível de juros em maturidades específicas para avaliação da performance das previsões. Como modelos concorrentes são consideradas as previsões de random-walk e o modelo de suavização exponencial de Holt-Winters. Para avaliação da performance se utilizou a estratégia de “walk-forward validation”, considerando um conjunto de treinamento inicial de 987 dias (75% da amostra). Destaca-se que o conjunto de validação (de 3 de janeiro de 2022 até 20 de abril de 2023) abarca um período de mudanças contínuas na forma da curva de rendimentos. Para a comparação dos diferentes modelos se utilizou o teste de Diebold-Mariano, com a modificação proposta por Harvey e outros. [Resultados e Considerações Finais] O segundo capítulo fez uma avaliação abrangente dos modelos de interpolação para estimar a curva de juros. Além dos modelos normalmente considerados pela literatura, foram considerados os modelos de regressão de Kernel e de regressão local (Loess) até então não aplicados a esse tipo de problema. Foram consideradas três dimensões para a comparação desses modelos, tanto na dimensão de qualidade do ajuste quanto na de robustez o modelo Loess apresentou o melhor desempenho fora da amostra sendo que em algumas situações ele não tinha um desempenho estatisticamente diferente do modelo de smoothing splines. Na dimensão relacionada a suavidade os modelos baseados em função (regressão polinomial e família Nelson-Siegel) tiveram o melhor desempenho. Para a comparação dos modelos foi utilizado o teste de comparações múltiplas, até então também não aplicado a esse tipo de problema. O terceiro capítulo fez uma implementação do modelo Diebold-Li (alternativamente chamado de Nelson-Siegel dinâmico) para a economia brasileira recente. O modelo dinâmico de NelsonSiegel teve um desempenho ruim em comparação com os resultados originais do Diebold and Li (2006) e alguns exercícios anteriores usando dados brasileiros de outros períodos. Em muitos casos, foi superado pela previsão de random-walk. 


  • Mostrar Abstract
  • The dissertation undertakes two distinct lines of statistical analysis on the yield curve for Brazil: the first involves the interpolation of daily observed data to estimate the complete curve. In contrast, the second focuses on extrapolating past information to forecast the yield curve. These analyses aim to model the behaviour of interest rates in Brazil, offering insights for improved macroeconomic management and supporting investment decisions. The analysis utilizes data from interest rate futures contracts traded in Brazil between January 2018 and April 2023. The second chapter is dedicated to estimating empirical models of the Term Structure of Interest Rates. Despite B3 periodically releasing yield curve estimates for monitoring the Brazilian market, various estimation techniques are considered for alternative purposes due to inherent trade-offs. The interest rate and maturity relationship holds for all terms, but daily observations are limited to specific maturities corresponding to traded securities or derivatives. Therefore, estimating the entire curve from these observed data points is crucial. This chapter evaluates empirical models, which do not impose restrictions derived from theoretical term structure models during the estimation process. These models are focused on obtaining a smooth function from observed data while adhering to specific constraints, such as the non-negativity of interest rates. The evaluation criteria include the quality of fit, robustness to outliers, and smoothness of the estimated function. This chapter contributes to literature by assessing models not previously applied to yield curve estimation and utilizing the multiple comparison procedure. Results highlight the strong fit of spline models, emphasize the greater smoothness of Nelson-Siegel family models, and recognize the noteworthy performance of the previously overlooked Loess model. The third chapter delves into modelling the yield curve dynamics through a factor model perspective to generate curve predictions. The analysis incorporates Brazilian data by implementing the Nelson-Siegel Dynamic model proposed by Diebold and Li (2006) and further developed in Diebold et al. (2006). Both original estimation procedures, two-step and one-step, are considered, focusing on the latter using the Kalman filter. Out-of-sample predictive capacity is assessed through the Diebold-Mariano test, comparing the performance of these implementations against simpler models.

9
  • GABRIEL ÂNGELO DA SILVA GOMES
  • Ensaios sobre análise estatística de dados de impressões digitais

  • Orientador : RAUL YUKIHIRO MATSUSHITA
  • MEMBROS DA BANCA :
  • RAUL YUKIHIRO MATSUSHITA
  • GLADSTON LUIZ DA SILVA
  • ROBERTO VILA GABRIEL
  • REGINA CÉLIA BUENO DA FONSECA
  • Data: 13/12/2023

  • Mostrar Resumo
  • O presente resumo expandido é uma síntese dos cinco artigos que compõem esta dissertação, os quais são decorrência de alguma necessidade de ordem prática em que a estatística pôde colaborar. O primeiro ensaio é referente à predição de atributos humanos a partir de Redes Neurais Convolucionais aplicadas às impressões digitais. O segundo trabalho trata de uma revisão bibliométrica que abrangeu o período de 2018 a 2023 em que foram propostos métodos automatizados de contagem de minúcias em impressões digitais. O terceiro artigo é resultado de um estudo estatístico referente à distibuição de fequências das minutiae e suas relações com os detalhes de níveis 1 e 3, e também seu comportamento diante do tipo de sexo e dedo. O quarto paper resulta de uma inicativa inédita de disponibilizar uma amostra de impressões digitais representativa da população brasileira e, com isso, espera-se fomentar pesquisas acadêmicas e científicas com propósito ético, não comercial e sem fins lucrativos. Por fim, o quinto estudo trata da aplicação da divergência de Rényi, como uma opção ao teste qui-quadrado, ao realizar testes de hipótese envolvendo contagens menores que cinco de minúcias em impressões digitais.


  • Mostrar Abstract
  • This dissertation is organized as a collection of five articles regarding applying statistical tools in fingerprint studies. The first applies convolutional neural networks to fingerprint data for predicting human attributes such as sex, hand types (left or right), and position of fingers (right index finger, for example). The second presents a bibliometric review from 2018 to 2023 of automated minutiae counting initiatives, we noted that most involve convolutional neural networks. The third deals with a statistical analysis of the distribution of Level 2 details concerning levels 1 and 3, in addition to considering sex and type of finger. The fourth suggests an initiative to disseminate 1,000 fingerprints sampled from Brazilians (50 males and 50 females) for ethical, non-profit academic and scientific research. This initiative aims to promote fingerprint identification studies. Finally, the fifth essay suggests Rényi’s divergence as an alternative to the traditional chi-square test to evaluate goodness-of-fit, homogeneity, and independence in contingency tables involving rare events. We illustrate this method using fingerprint minutiae data sampled from the Brazilian Federal Police records.

10
  • Aitcheou Gauthier Zountchegnon
  • Previsão de séries temporais aplicada a dados de venda de uma grande varejista do Brasil

  • Orientador : JOSE AUGUSTO FIORUCCI
  • MEMBROS DA BANCA :
  • JOSE AUGUSTO FIORUCCI
  • EDUARDO YOSHIO NAKANO
  • GUILHERME SOUZA RODRIGUES
  • MARINHO GOMES DE ANDRADE FILHO
  • Data: 19/12/2023

  • Mostrar Resumo
  • O comércio varejista desempenha um papel crucial na economia brasileira, sendo o planejamento do volume de vendas e outros fatores associados a esse setor de extrema importância para seu crescimento. Para a previsão e planejamento eficazes das vendas, métodos relacionados a séries temporais surgem como ferramentas fundamentais. Este estudo concentra-se no desenvolvimento e avaliação de modelos preditivos, os quais devem levar em consideração características típicas desses dados, como a estrutura hierárquica, a presença de múltiplas sazonalidades nas séries de níveis mais elevados e o comportamento intermitente nas séries de níveis mais baixos.


  • Mostrar Abstract
  • Retail trade plays a crucial role in the Brazilian economy, and planning for sales volume and other factors related to the retail sector is of great importance for its growth. To effectively forecast and plan sales quantities, methodologies related to time séries can be employed. This study focuses on the development and evaluation of predictive models, which should consider typical characteristics of such data, such as hierarchical structure, the presence of multiple seasonalities in higher-level séries, and intermittent behavior in lower-level séries.

2022
Dissertações
1
  • Matheus Gorito de Paula
  • Aprendizagem cruzada para previsão de séries temporais univariadas.

  • Orientador : JOSE AUGUSTO FIORUCCI
  • MEMBROS DA BANCA :
  • JOSE AUGUSTO FIORUCCI
  • EDUARDO YOSHIO NAKANO
  • GUILHERME SOUZA RODRIGUES
  • FLÁVIO LUIZ DE MORAES BARBOZA
  • Data: 19/09/2022

  • Mostrar Resumo
  • Aprendizado de máquina se refere ao processo pelo qual os computadores desenvolvem o reconhecimento de padrões, ou a capacidade de aprender continuamente, ou fazer previsões com base em dados, e então, fazer ajustes sem serem especificamente programados para isso. Dentro dos métodos de aprendizado de máquina, esse trabalho foca na técnica deStacking. Competições de Previsões de Séries Temporais são competições que têm como objetivo avaliar e comparar a acurácia de modelos de previsão de Séries Temporais. Nesse projeto utiliza-se o banco de Séries Temporais da competição M3 para realizar previsões utilizando os modelos de referência de Séries Temporais. Após, treina-se um modelo de Boostingcom os resultados das previsões buscando obter resultados mais eficientes nas competições.


  • Mostrar Abstract
  • Machine learning refers to the process by which computers develop pattern recognition, or the ability to continually learn, or make predictions based on data, and then make adjustments without being specifically programmed to do so. Within machine learning methods, this work focuses on the Stacking technique. Time Series Forecast Competitions are competitions that aim to evaluate and compare the accuracy of Time Series forecast models. In this project we use the Time Series database from the M3 competition to make predictions using the Time Series reference models. Afterwards, we train a Boosting model with the results of the predictions seeking to obtain more efficient results in competitions.

2
  • Marcos Douglas Rodrigues de Sousa
  • Regressão Binomial Negativa Inflacionada de Zeros Geograficamente Ponderada.

  • Orientador : ALAN RICARDO DA SILVA
  • MEMBROS DA BANCA :
  • ALAN RICARDO DA SILVA
  • ANDRE LUIZ FERNANDES CANCADO
  • FRANCISCO JOSÉ DE AZEVEDO CYSNEIROS
  • THAIS CARVALHO VALADARES RODRIGUES
  • Data: 21/09/2022

  • Mostrar Resumo
  • O objetivo deste trabalho é trazer uma abordagem sobre a modelagem de dados de contagem, considerando a existência de zeros na distribuição. Pressupondo a utilização de dados espacias, em que o fenômeno em análise não apresente estacionariedade, a regressão geograficamente ponderada surge para solucionar este problema. Sendo assim, este trabalho traz uma extensão da regressão binomial negativa geograficamente ponderada (RBNGP) para incluir a distribuição binomial negativa inflacionada de zeros, sendo intitulada regressão binomial negativa inflacionada de zeros geograficamente ponderada (RBNIZGP).

     

    Para verificar a performance de ajuste do modelo RBNIZGP, foram utilizados alguns dados simulados de distribuições Poisson, binomial negativa, Poisson inflacionado de zeros e binomial negativa inflacionada de zeros, sem variação espacial. E por último, para verificação da qualidade do ajuste no caso de variação espacial, foram utilizados dados reais sobre casos de COVID-19 na Coréia do Sul, sendo dados que foram analisados por (Weinstein et al., 2021).

     

    Os resultados das simulações mostraram que o modelo RBNIZGP foi capaz de modelar os dados com distribuição Poisson, binomial negativa, Poisson inflacionada de zeros e binomial negativa inflacionada de zeros, sem variação espacial, por meio de um grande parâmetro de suavização. Já no estudo de caso real, os resultados mostraram que localmente, os modelos ajustados poderiam ser Poisson ou binomial negativo, refinando dessa forma a análise, e mostrando a flexibilidade do modelo RBNIZGP.


  • Mostrar Abstract
  • The goal of this work is to bring an approach to the modeling of count data, considering the existence of zeros in the distribution. Assuming the use of spatial data, in which the phenomenon under analysis does not present stationarity, the geographically weighted regression appears to solve this problem. Therefore, this work brings an extension of the geographically weighted negative binomial regression (GWNBR) to include a zero-inflated negative binomial distribution, entitled geographically weighted zero-inflated negative binomial regression (GWZINBR).

     

    To verify the performance of the fit of the RBNIZGP model, some simulated data from distributions, zero-inflated poisson and zero-inflated negative binomial, without spatial space, were used. Finally, adjustment was used in the case of selection of the real quality of data on COVID-19 cases in South Korea, with data from South Korea being analyzed by (Weinstein et al., 2021).

     

    The results of the simulations showed that the RBNIZGP model was able to model the data with Poisson, negative binomial, zero inflated Poisson and zero inflated negative binomial distributions, without spatial variation, by means of a large bandwidth. In the real case study, the results showed that locally, the adjusted models could be Poisson or negative binomial, thus refining the analysis, and showing the flexibility of the GWZINBR model.

3
  • Monique Lohane Xavier Silva
  • Um modelo de risco de crédito bayesiano para classificação de clientes inadimplentes

  • Orientador : EDUARDO YOSHIO NAKANO
  • MEMBROS DA BANCA :
  • EDUARDO YOSHIO NAKANO
  • HELTON SAULO BEZERRA DOS SANTOS
  • JOSE AUGUSTO FIORUCCI
  • MARCELO ANGELO CIRILLO
  • Data: 03/11/2022

  • Mostrar Resumo
  • O objetivo desse trabalho foi propor uma modelagem bayesiana de risco de crédito para a classificação de clientes quanto ao seu risco de inadimplência. O diferencial da metodologia proposta é a possibilidade de incorporar uma informaçãoa priorino processo de classificação dos clientes e não apenas na obtenção das estimativas dos parâmetros domodelo que gera o Escore de Risco. A principal vantagem desse procedimento se deve à simplicidade em incorporar a opinião do especialista no processo de classificação, algo que não ocorre na modelagem bayesiana tradicional, cuja informaçãoa priorirecai sobre os parâmetros dos modelos que, geralmente, são quantidades abstratas e/ou associadas à covariáveis sujeitas a problemas de multicolinearidade. Para a devida ilustração da metodologia proposta, utilizou-se um conjunto de dadosna literaturae os resultados obtidos mostraram que o modelo é útil para a classificação de clientes quanto a sua probabilidade de inadimplência.


  • Mostrar Abstract
  • The aim of this work was to propose a bayesian credit risk model for classifying customers in terms of their default risk. The differential of the proposed methodology is the possibility of incorporatinga priori information in the customer classification process and not just in the estimation of the customers' evaluation parameters. The main advantage of this procedure is due to the simplicity in incorporating the expert's opinion in the classification process, something that does not occur in traditional bayesian modeling, whose a priori information falls on the parameters of the models, which are usually abstract quantities and/or associated with covariates with multicollinearity problems. To illustrate the proposed methodology, a dataset in the literature was usedand the results obtained showed that the model is useful for classifying customers in terms of their probability of default

4
  • Beatriz Leal Simões e Silva
  • Um novo modelo Weibull bimodal inversível

  • Orientador : CIRA ETHEOWALDA GUEVARA OTINIANO
  • MEMBROS DA BANCA :
  • CIRA ETHEOWALDA GUEVARA OTINIANO
  • ANTONIO EDUARDO GOMES
  • HELTON SAULO BEZERRA DOS SANTOS
  • MARCELO BOURGUIGNON PEREIRA
  • Data: 03/11/2022

  • Mostrar Resumo
  • A distribuição Weibull é um dos modelos mais utilizados em estatística em áreas relacionadas, pois possui uma expressão simples para a função de densidade de probabilidade, função de sobrevivência e momentos. No entanto, a distribuição Weibull não é capaz de ajustar dados bimodais. Neste trabalho, propomos uma nova generalização da distribuição Weibull de três parâmetros, um novo modelo Weibull bimodal invertível (NIBW), que pode ser bimodal e sua função de distribuição cumulativa e função quantílica tem uma forma simples e fechada, o que o torna muito interessante em procedimentos de simulação e para o cálculo de medidas de risco nas áreas aplicadas. Diversas propriedades do modelo foram estudadas e a versão não negativa do modelo (NNIBW) foi utilizada na realização das estimativas de máxima verossimilhança dos parâmetros e testada por simulação de Monte Carlo. Além disso, usando quatro conjuntos de dados de temperatura, é realizado o ajuste do nosso modelo e comparado com outra distribuição bimodal. Também é calculado o tempo de retorno e por fim, um modelo de regressão com covariáveis é ajustado para um conjunto de dados escolhido.


  • Mostrar Abstract
  • The Weibull distribution is one of the most used models in statistics and applied areas, as it has a simple expression for the probability density function, survival function, and moments. However, the Weibull distribution is not able to fit bimodal data. In this work, we propose a new generalization of the three-parameter Weibull distribution, a new invertible bimodal Weibull model (NIBW), which can be bimodal and its cumulative distribution function and quantile function have a simple and closed form, which makes it very interesting in simulation procedures and for the calculation of risk measures in the applied areas. Several properties of the model were studied and the non-negative version of the model (NNIBW) was used in the performance of the maximumlikelihood estimates of the parameters and tested using Monte Carlo simulation. Furthermore, using four sets of temperature data, we fitted and compared our model with another bimodal distribution, calculate the return time and fit as well a regression model for one chosen dataset.

5
  • Ana Lívia Protázio Sá
  • Modelos Log-Simétricos Bivariados: Propriedades Teóricas e Estimação Paramétrica

  • Orientador : ROBERTO VILA GABRIEL
  • MEMBROS DA BANCA :
  • ROBERTO VILA GABRIEL
  • CIRA ETHEOWALDA GUEVARA OTINIANO
  • JOSE AUGUSTO FIORUCCI
  • JEREMIAS DA SILVA LEÃO
  • Data: 17/11/2022

  • Mostrar Resumo
  • A distribuição gaussiana bivariada tem sido a base da probabilidade e da estatística por muitos anos. No entanto, esta distribuição enfrenta alguns problemas, principalmente devido ao fato de que muitos fenômenos do mundo real geram dados que seguem distribuições assimétricas. Modelos log-simétricos bidimensionais possuem propriedades atrativas e podem ser considerados boas alternativas para resolver este problema, pois possuem propriedades estatísticas que podem torná-las preferíeis a distribuição guassiana. Nesta dissertação, propomos novas caracterizações de distribuições log-simétricas bivariadas e suas aplicações. Esta dissertação visa desenvolver importantes contribuições para a estatística probabilística, teórica e aplicada devido à flexibilidade e propriedades interessantes dos modelos descritos.

    Teoricamente, uma distribuição é log-simétrica quando a variável aleatória correspondente e sua recíproca têm a mesma distribuição (ver Jones 2008). Uma caracterização de distribuições desse tipo pode ser construída tomando a função logaritmo de uma variável aleatória simétrica. Portanto, distribuições log-simétricas são usadas para descrever o comportamento de dados estritamente positivos.A classe desse tipo de distribuição é bastante ampla e inclui grande parte das distribuições bimodais e aquelas com caudas mais leves ou mais pesadas que a distribuição log-normal; ver, por exemplo, Vanegas e Paula (2016). Alguns exemplos de distribuiçõeslog-simétricas são: log-normal, log-Student-$t$, log-logistic, log-Laplace, log-Cauchy, log-power-exponencial, log-slash, harmonic law, Birnbaum-Saunders, e Birnbaum-Saunders-$t$; ver, por exemplo, Crow e Shimizu (1988), Birnbaum e Saunders (1969), Riecke Nedelman (1991), Johnson et al. (1994), 1995, Díaz-García e Leiva (2005), Marshall e Olkin (2007), Jones (2008) e Vanegas e Paula (2016).

    Estudamos as principais propriedades estatísticas dos modelos, no capítulo 1 apresentemos o modelo log-simétrico bivariado (BLS) proposto, ademais neste capítulo as principais propriedades matemáticas, como representação estocástica,função quantil, distribuição condicional, distância Mahalanobis, independência, momentos, função de correlação, entre outras propriedades do modelo BLS são discutidas.

    No capítulo 2, propomos o método de máxima verossimilhança para a estimação dos parâmetros das distribuições propostas. No capítulo 3, realizamos a simulação de Monte Carlo para avaliar a performance dos estimadores de máxima verossimilhança, utilizando o viés e o Erro Quadrático Médio, considerando vários cenários para diferentes distribuições, o que mostrou bons resultados com valores próximos a zero.

    No Capítulo 4, realizamos a aplicação a um conjunto de dados reais refentesafatigue, os dados são baseados no artigo de Marchant et al. (2015), no qual ele propôs um modelo de regressão multivariado Birnbaum-Saunders, realizamos a estimação dos parâmetros utilizando o método de Máxima verossimilhança e usamos as seguintes váriaveisVon Mises stress(𝑇1)e die limetime(𝑇2), para a estimação dos parâmetros extras utilizamos estimação perfilada, além disso computamos os valores de critério de informação de Akaike (AIC) e Bayesiano (BIC), para utilizarmos como critério de seleção de modelo. Os resultados são vistos como favoráveis ao modelo log-Laplace.


  • Mostrar Abstract
  • The bivariate Gaussian distribution has been the basis of probability and statistics for many years. Nonetheless, this distribution faces some problems, mainly due to the fact that many real-world phenomena generate data that follow asymmetric distributions. Bidimensional log-symmetric models have attractive properties and can be considered as good alternatives to solve this problem. In this dissertation, we propose new characterizations of bivariate log-symmetric distributions and their applications. This dissertation aims to develop important contributions to probability, theoretical and applied statistics due to the flexibility and interesting properties of the outlined models. We implemented maximum likelihood estimation for the parameters of the distributions. A Monte Carlo simulation study was performed to evaluate the performance of the parameter estimation. Finally, we applied the proposed methodology to a real data set

6
  • Gustavo Maia Rodrigues Gomes
  • Estrutura Multi-Armed Bandit para Alocação em Portfólio

  • Orientador : RAUL YUKIHIRO MATSUSHITA
  • MEMBROS DA BANCA :
  • RAUL YUKIHIRO MATSUSHITA
  • JOSE AUGUSTO FIORUCCI
  • ERALDO SERGIO BARBOSA DA SILVA
  • REGINA CÉLIA BUENO DA FONSECA
  • Data: 22/11/2022

  • Mostrar Resumo
  • Há mais de um século, a comunidade acadêmica estuda o mercado financeiro na tentativa de entender seu comportamento para maximizar os lucros. Este trabalho procura maneiras de maximizar os resultados no mercado financeiro criando um procedimento de duas fases que chamamos de MAB-MMAR. Primeiro, estabelece-se modelos generativos individuais para cada ativo, para simular, via Monte Carlo, retornos futuros, usando Multifractal Model of Asset Returns que é capaz de multiescalar os momentos da distribuição de retorno sob escalas temporais, sendo uma alternativa às representações do tipo ARCH que tem sido o foco de pesquisas empíricas sobre a distribuição de preços nos últimos anos. Em segundo lugar, constrói-se uma estrutura de Multi-Armed Bandit (MAB) aplicando o algorítimo Upper Confidence Bound (UCB)- Tuned sobre os caminhos simulados, a fim de realizar escolhas entre ativos que otimizem a alocação de recursos. Além disso, como camada de proteção para as operações, propomos o Método da Dupla Barreira, onde a operação é encerrada se uma barreira inferior for tocada. Como comparação de desempenho, foram testados os modelos One-Asset, 1/n, Modern Portfolio Theory (MPT) e Axiomatic Second-order Stochastic Dominance Portfolio Theory (ASSDPT). Nossos resultados são promissores, onde se revela que, em geral, o MAB-MMAR foi o que melhor desempenhou nos mais variados cenários.


  • Mostrar Abstract
  • For over a century, the academic community has studied the financial market in an attempt to understand its behavior to maximize profits. This work looks for ways to maximize results in the financial market by creating a two-phase procedure that we call MAB-MMAR. First, individual generative models are established for each asset, to simulate, via Monte Carlo, future returns, using the Multifractal Model of Asset Returns, which is able to multiscale the moments of the return distribution under time scales, being an alternative to representations of the ARCH type, which are the representations that have been the focus of empirical research on the distribution of prices in recent years. Second, a Multi-Armed Bandit (MAB) structure is built by applying the Upper Confidence Bound (UCB)-Tuned algorithm on the simulated paths, in order to make choices between assets that optimize the allocation of resources. Furthermore, as a layer of protection for operations, we propose the Double Barrier Method, where the operation is terminated if a lower barrier is touched. As a performance comparison, the One-Asset, 1/n, Modern Portfolio Theory (MPT) and Axiomatic Second-order Stochastic Dominance Portfolio Theory (ASSDPT) models were tested. Our results are promising, revealing that, in general, the MAB-MMAR performed best in the most varied scenarios.

7
  • Ana Carolina Souto Valente Motta
  • Associação entre Saúde Cardiovascular e Determinantes Socioeconômicos: Uma Aplicação de modelos de regressão logística multinomial e ordinal

  • Orientador : JOANLISE MARCO DE LEON ANDRADE
  • MEMBROS DA BANCA :
  • JOANLISE MARCO DE LEON ANDRADE
  • ANDRE LUIZ FERNANDES CANCADO
  • EDUARDO YOSHIO NAKANO
  • JULIA MARIA PAVAN SOLER
  • Data: 28/11/2022

  • Mostrar Resumo
  • Objetivo: Estimar a prevalência de Saúde Cardiovascular (SCV) Ideal na população adulta brasileira e avaliar a associação entre SCV e determinantes sociais com base na Pesquisa Nacional de Saúde 2019. Métodos: Inquérito de saúde de âmbito nacional (n=77.494). O escore de SCV proposto pela Associação Americana do Coração incluiu 4 metas comportamentais (tabagismo, índice de massa corpórea, exercício e dieta) e 3 metas biológicas (colesterol, pressão arterial e glicose). Prevalências (e intervalos de 95% de confiança) de SCV ideal e suas metas individuais foram estimadas utilizando expansão da amostra. Associações entre SCV e determinantes socioeconmicos (Escolaridade, ndice de riqueza e status de ocupao) foram avaliadas por modelos de regresso logstica, ordinal e multinomial, ajustando-se por variveis sociodemogrficas. Resultados: Apenas 0,5% (IC95% 0,4;0,6) da populao apresentou SCV Ideal (7 metas favorveis) e 8,9% (IC95% 8,5;9,3), SCV superior (6-7 metas favorveis), com pior desempenho em metas comportamentais. Escolaridade, riqueza e ocupao, alm das covariveis faixa etria, estado civil, presena de doenas crnicas, regio e situao de domiclio apresentaram associao significante com SCV. Modelos de regresso logstica binria, multinomial e ordinal identificaram praticamente as mesmas variveis independentes significantes, sendo o multinomial mais interessante clinicamente e o ordinal de difcil interpretabilidade e avaliao no contexto de amostragem complexa. Concluso: A baixssima prevalncia de SCV Ideal e associaes entre SCV e caractersticas sociodemogrficas observadas na populao adulta brasileira evidenciam a necessidade de polticas pblicas para promoo, vigilncia e ateno SCV com intervenes mais direcionadas e eficazes visando um aumento na prevalncia de SCV.


  • Mostrar Abstract
  • Objective: To estimate the prevalence of Ideal Cardiovascular Health (CVH) in the Brazilian adult population and to evaluate the association between CVH and social determinants based on the 2019 National Health Survey. Methods: Nationwide health survey (n=77,494). The CVH score proposed by the American Heart Association includes 4 behavioral metrics (smoking, body mass index, exercise, and diet) and 3 biological metrics (cholesterol, blood pressure, and glucose). Prevalence (and 95% confidence intervals) of ideal CVH and their individual metrics were estimated using sample expansion. Associations between CVH and socioeconomic determinants (Education, Wealth and Occupation Index) were evaluated by logistic, ordinal and multinomiaregression models,adjusting for sociodemographicvariables. Results:Only0.5%(95%CI 0.4;0.6) of the population presented Ideal CVH (7 favorable metrics) and 8.9% (95%CI 8.5;9.3presented superior CVH (6-7 favorable metrics), with worse performance in behavioral metrics. Education, wealth index and occupation status, in addition to the covariates age group, marital status, presence of chronic diseases, region, and urban-rural classification were significantly associated with CVH. Binary, multinomial and ordinallogistic regression models identified practically the same significant independent variables, with the multinomial being more interesting clinically and the ordinal being difficult to interpret and evaluate in the context of complex sampling. Conclusion: The very low prevalence of Ideal CVH and associations between CVH and sociodemographic characteristics observed in the Brazilian adult population highlight the need for public policies to promote, monitor and care for CVH with more targeted and effective interventions to increase the prevalence of CVH.

8
  • Lídia Almeida de Carvalho
  • Uma proposta para controle da taxa de exposição de itens em testes adaptativos computadorizados

  • Orientador : ANTONIO EDUARDO GOMES
  • MEMBROS DA BANCA :
  • ANTONIO EDUARDO GOMES
  • GUILHERME SOUZA RODRIGUES
  • RAUL YUKIHIRO MATSUSHITA
  • CAIO LUCIDIUS NABEREZNY AZEVEDO
  • Data: 29/11/2022

  • Mostrar Resumo
  • O desenvolvimento dos testes adaptativos computadorizados só foi possível devido aos avanços tecnológicos das últimas décadas, permitindo que esta metodologia obtenha estimativas para a habilidade dos examinadoscom base em um número reduzido de itens selecionados especificamente para cada respondente a partir do seu traço latente estimado. Suas dificuldades surgem quando um pequeno grupo de itens é exposto com frequência, colocando em risco a segurança do teste.Assim, esta pesquisa tem como objetivo propor um método para a etapade seleção de itens, com base no uso de informação ponderada por uma potência de ordem alfa da proporção corrente de respondentes não expostos a cada item, a fim de reduzir a taxa de exposição dos itens, de modo que não tenham taxas de exposição muito altas ou itens que nunca tenham sido expostos mesmo com grau de dificuldade próximo da habilidade real theta do respondente. Os resultados demonstram as vantagens da metodologia proposta comrelação às já utilizadas, apresentando melhor desempenho na proporção de itens superexpostos com todos os valores de alfa para informação ponderada aleatória e aumentando a proporção de itens expostos para maiores valores de alfa no método de máxima informação ponderada, para o banco de itens simulado. O método de máxima informação ponderada com alfa aleatório apresentou melhor desempenho dentre todos os métodos aqui abordados ao ser aplicado no banco de itens real. Outras vantagens relacionadas a escolha dos valores de alfa também são citadas


  • Mostrar Abstract
  • The development of computerized adaptive tests was only possible due to the technological advances of the last decades, allowing this methodology to obtain estimates for the ability of the examinees based on a reduced number of items selected specifically for each respondent from their estimated latent trait. Its difficulties arise when a small group of items is exposed frequently, jeopardizing the security of the test. Thus, this research aims to propose a method for the item selection step, based on the use of information weighted by a power of order alpha of the current proportion of respondents not exposed to each item, in order to reduce the exposure rate of the items, so that they do not have very high exposure rates or items that have never been exposed even with a degree of difficulty close to the respondent’s real skill theta. The results demonstrate the advantages of the proposed methodology in relation to those already used, presenting better performance in the proportion of overexposed items with all values of alfa for random weighted information and increasing the proportion of exposed items for higher values of alpha in the weighted maximum information method, for the simulated item bank. The weighted maximum information method with random alpha presented the best performance among all the methods discussed here when applied to the real item bank. Other advantages related to the choice of alpha values are also mentioned.



SIGAA | Secretaria de Tecnologia da Informação - STI - (61) 3107-0102 | Copyright © 2006-2025 - UFRN - app38.sigaa38