27.08.2019 Views

book

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

BOOK OF ABSTRACTS


The electronic version of this <strong>book</strong>let can be found at:<br />

http://redeabe.org.br/este2019/<br />

The open L A TEX template used to generate this <strong>book</strong>let is available at<br />

https://github.com/maximelucas/AMCOS_<strong>book</strong>let


Contents<br />

About the 18th ESTE 4<br />

Timetable 5<br />

Tutorial 6<br />

Minicourse 7<br />

Plenary Talks 8<br />

Wednesday, September 4th . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8<br />

Thursday, September 5th . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11<br />

Friday, September 6th . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14<br />

Thematic Sessions 16<br />

Wednesday, September 4th . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16<br />

Thursday, September 5th . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22<br />

Oral Communications 28<br />

Tuesday, September 3rd . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28<br />

Wednesday, September 4th . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34<br />

Thursday, September 5th . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42<br />

Poster Communications 50<br />

Wednesday, September 4th . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50<br />

Thursday, September 5th . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86<br />

Useful Information 125<br />

Partner Institutions and Sponsors 126<br />

3


About the 18th ESTE<br />

18th ESTE<br />

The 18th Time Series and Econometrics Meeting (18th ESTE) will take place from 3 to 6 of<br />

September 2019 at Serra Azul Hotel in Gramado (RS), Brazil. These series of meetings have<br />

both national and international scopes and are organized every two years. They gather important<br />

Brazilian researchers as well as a selected number of international experts in the areas of Time<br />

Series and Econometrics. ESTE’s are promoted by the Brazilian Statistical Association. This<br />

edition is organized by the Department of Statistics of Universidade Federal do Rio Grande do Sul<br />

(UFRGS), having the support from from the graduate programmes of Statistics and Economics<br />

from UFRGS.<br />

Organizing committee<br />

Departamento de Estatística e Programa de Pós-Graduação em Economia – UFRGS<br />

Flávio Ziegelmann (Chair)<br />

Danilo Marcondes Filho<br />

Eduardo Horta<br />

Hudson da Silva Torrent<br />

Marcelo Savino Portugal<br />

Patrícia Klarmann Ziegelmann<br />

Scientific committee<br />

Flávio Ziegelmann (UFRGS, Brazil – Chair)<br />

Aluísio Pinheiro (Unicamp, Brazil)<br />

André Portela (UFSC, Brazil)<br />

Brani Vidakovic (Georgia Tech, USA)<br />

Marcelo Medeiros (PUC-Rio, Brazil)<br />

Márcio Laurini (FEARP/USP, Brazil)<br />

Pedro Morettin (USP, Brazil)<br />

4


Timetable<br />

The 18th ESTE will be occurring from September 3rd to September 6th, 2019.<br />

CF: Plenary Talk ST: Thematic Session MC: Minicourse<br />

CO: Oral Communications SP: Poster Communications<br />

Time Tuesday Wednesday Thursday Friday<br />

8:30-10:00 MC (Medeiros) MC (Medeiros) MC (Medeiros)<br />

10:00-10:30 Coffee break Coffee break Coffee break<br />

10:30-12:30<br />

ST1<br />

Data Science<br />

ST2<br />

Nonlinear<br />

ST3 Sicredi<br />

High<br />

Dimensional<br />

ST4<br />

Econometrics<br />

CF7 (Fernandes)<br />

CF8 (Pinheiro)<br />

12:30-14:00 WWlet registration Lunch<br />

Lunch<br />

14:00-14:30<br />

Opening<br />

WWlet<br />

14:30-15:30 CF1 (Fan) CF4 (Yao)<br />

Conclusion and<br />

lunch<br />

15:30-16-30 LASA WWlet CF2 (Lopes) CF5 (Izbicki)<br />

16:30-17:00 Coffee break Coffee break Coffee break<br />

17:00-18:00<br />

CF3 (Chang)<br />

CF6 (Lund)<br />

Tutorial<br />

WWlet<br />

(Perlin)<br />

18:00-19:40 CO3 CO4 CO5 CO6<br />

19:45-21:00 CO1 CO2 SP1 SP2<br />

21:00- Dinner<br />

Plenary Talks<br />

CF1: Jianqing Fan (Princeton, USA)<br />

CF2: Hedibert Lopes (Insper, Brazil)<br />

CF3: Jinyuan Chang (SUFE, China)<br />

CF4: Qiwei Yao (LSE, UK)<br />

CF5: Rafael Izbicki (UFSCar, Brazil)<br />

CF6: Robert Lund (Clemson, USA)<br />

CF7: Marcelo Fernandes (FGV/EESP, Brazil)<br />

CF8: Aluísio Pinheiro (IMECC/Unicamp, Brazil)<br />

Minicourse: Marcelo Medeiros<br />

Tutorial: Marcelo Perlin (EA/UFRGS, Brazil)<br />

Thematic Sessions<br />

ST1 – Data Science<br />

Jianqing Fan<br />

Marcelo Medeiros (PUC-Rio, Brazil)<br />

Etiënne Wijler (Maastricht, Netherlands)<br />

ST2 – Nonlinear Time Series<br />

Pedro L. Valls Pereira (FGV/EESP, Brazil)<br />

Márcio Laurini (FEARP/USP, Brazil)<br />

Robert Lund<br />

ST3 – High Dimensional Time Series<br />

Eduardo Horta (IME/UFRGS, Brazil)<br />

Jinyuan Chang<br />

Qiwei Yao<br />

ST4 – Econometrics<br />

Eduardo Mendes (FGV/RJ, Brazil)<br />

Nathalie Sanches (PUC-Rio, Brazil)<br />

Rodrigo Targino (FGV/RJ, Brazil)<br />

5


Tutorial<br />

Tuesday, September 3th<br />

17:00<br />

Importação on-line de séries temporais<br />

econômicas e financeiras usando R<br />

Marcelo Perlin<br />

EA/UFRGS<br />

Este workshop será um tutorial prático sobre a importação de dados de séries econômicas e<br />

financeiras com a plataforma R. Iremos percorrer as seguintes operações:<br />

- Importação de dados via pacote (online)<br />

- Inspecionamento e visualização gráfica dos dados importados<br />

- Exportação de dados para formatos populares (csv/xlsx/ods)<br />

Os dados trabalhados serão:<br />

- Séries de preços de fechamento de ações e índices<br />

- Séries de preços e yields de títulos da dívida Brasileira (Tesouro Direto)<br />

- Séries econômicas diversas dos sistemas do Banco Central do Brasil e IBGE<br />

- Demonstrativos financeiros e eventos corporativos de empresas negociadas em bolsa<br />

Um exemplo de ciclo completo de pesquisa em finanças será apresentado no final do workshop.<br />

Requerimentos:<br />

- Conhecimentos básicos de R ou programação<br />

- Cada participante deve trazer seu próprio laptop com R (https://www.r-project.org/) e Rstudio (<br />

https://www.rstudio.com/ ) instalados<br />

6


Minicourse<br />

Wednesday to Friday, September 4th-6th<br />

8:30<br />

Statistical Learning<br />

Marcelo Medeiros<br />

PUC/Rio<br />

Neste mini-curso serão apresentados métodos de aprendizado por máquinas (“Machine Learning”)<br />

para seleção de variáveis em modelos lineares assim como modelos não-lineares para previsão de<br />

séries temporais. Serão revistas também tanto aplicações em Economia quanto em Finanças.<br />

Dentre as técnicas lineares, destacamos as seguintes: Ridge, LASSO, LASSO adaptativo, Elastic<br />

Net e Complete Subset Regression. Já em relação aos modelos não-lineares o foco será em árvores<br />

de regressão, random forests, boosted forests e deep learning.<br />

7


Plenary Talks<br />

CF1<br />

Wednesday, September 4th<br />

14:30<br />

Communication Efficient Distributed Statistical<br />

Estimation<br />

Jianqing Fan<br />

Princeton University<br />

When the data are stored in a distributed manner, direct application of traditional statistical<br />

inference procedures is often prohibitive due to communication cost and privacy concerns. This<br />

paper develops and investigates iterative algorithms for distributed statistical estimation. In each<br />

iteration, node machines carry out computation in parallel and communicates with the central<br />

processor, which then broadcasts aggregated gradient vector to node machines for new updates.<br />

The algorithms can adapt to the similarity among loss functions on node machines, and converge<br />

rapidly when each node machine has large enough sample size. Moreover, they do not require<br />

good initialization and enjoy linear converge guarantees under general conditions. In addition, the<br />

improved statistical accuracy per iteration is derived. Extensive numerical experiments on both<br />

synthetic and real data validate the theoretical results and demonstrate the superior performance<br />

of our algorithms.<br />

8


Plenary Talks<br />

CF2<br />

Wednesday, September 4th<br />

15:30<br />

Learning a latent pattern of heterogeneity in<br />

the innovation rates of a time series of counts<br />

Hedibert Lopes<br />

Insper<br />

We generalize the original integer autoregressive time series model of McKenzie, Al-Osh and Alzaid,<br />

introducing time varying innovation rates. Through data augmentation and hierarchical extension,<br />

we model the distribution of the innovation rates conditionally, by means of a Dirichlet process. The<br />

clustering properties of the Dirichlet process allow us to learn a latent pattern of heterogeneity in<br />

the innovation rates. Applying this semiparametric Bayesian model to forecast time series of crime<br />

events in Pittsburgh, it outperforms the original model in the majority of the patrol areas.<br />

9


Plenary Talks<br />

CF3<br />

Wednesday, September 4th<br />

17:00<br />

Optimal covariance matrix estimation for<br />

high-dimensional noise in high-frequency data<br />

Jinyuan Chang<br />

Southwestern University of Finance and Economics<br />

In this paper, we consider efficiently learning the structural information from the high-dimensional<br />

noise in high-frequency data via estimating its covariance matrix with optimality. The problem is<br />

uniquely challenging due to the latency of the targeted high-dimensional vector containing the noises,<br />

and the practical reality that the observed data can be highly asynchronous – not all components<br />

of the high-dimensional vector are observed at the same time points. To meet the challenges,<br />

we propose a new covariance matrix estimator with appropriate localization and thresholding.<br />

In the setting with latency and asynchronous observations, we establish the minimax optimal<br />

convergence rates associated with two commonly used loss functions for the covariance matrix<br />

estimations. As a major theoretical development, we show that despite the latency of the signal in<br />

the high-frequency data, the optimal rates remain the same as if the targeted high-dimensional<br />

noises are directly observable. Our results indicate that the optimal rates reflect the impact due<br />

to the asynchronous observations, which are slower than that with synchronous observations.<br />

Furthermore, we demonstrate that the proposed localized estimator with thresholding achieves the<br />

minimax optimal convergence rates. We also illustrate the empirical performance of the proposed<br />

estimator with extensive simulation studies and a real data analysis.<br />

Keywords: High-dimensional covariance matrix; High-frequency data analysis; Measurement error;<br />

Minimax optimality; Thresholding<br />

10


Plenary Talks<br />

CF4<br />

Thursday, September 5th<br />

14:30<br />

Multiple Forecasting based on Time Series PCA<br />

Qiwei Yao<br />

London School of Economics<br />

When forecasting large number of time series, the conventional wisdom is to forecast each time<br />

series separately, as the potential gain from looking into the cross correlations is typically cancelled<br />

out by the estimation errors. We extend the principal component analysis (PCA) to vector time<br />

series in the sense that we seek for a contemporaneous linear transformation for a p-variate time<br />

series such that the transformed series is segmented into several lower-dimensional subseries, and<br />

those subseries are uncorrelated with each other both contemporaneously and serially. Therefore<br />

those lower-dimensional series can be forecasted separately. Technically it boils down to an<br />

eigenanalysis for a positive definite matrix. When the number of time series is large, an additional<br />

step is required to perform a permutation in terms of either maximum cross-correlations or FDR<br />

based on multiple tests. Numerical illustration with real data indicates that the forecasting based<br />

this new PCA outperforms those based on the original time series – a phenomena can be clearly<br />

understood analytically. The approach can be extended to forcasting multivariate volatility process,<br />

or a bundle of curve time series.<br />

11


Plenary Talks<br />

CF5<br />

Thursday, September 5th<br />

15:30<br />

ABC-CDE: Toward Approximate Bayesian<br />

Computation with Complex High-Dimensional<br />

Data and Limited Simulations<br />

Rafael Izbicki<br />

UFSCar<br />

Approximate Bayesian computation (ABC) is typically used when the likelihood is either unavailable<br />

or intractable but where data can be simulated under different parameter settings using a forward<br />

model. Despite the recent interest in ABC, high-dimensional data and costly simulations still<br />

remain a bottleneck in some applications. There is also no consensus as to how to best assess the<br />

performance of such methods without knowing the true posterior. We show how a nonparametric<br />

conditional density estimation (CDE) framework, which we refer to as ABC-CDE, help address<br />

three nontrivial challenges in ABC: (i) how to efficiently estimate the posterior distribution with<br />

limited simulations and different types of data, (ii) how to tune and compare the performance of<br />

ABC and related methods in estimating the posterior itself, rather than just certain properties of the<br />

density, and (iii) how to efficiently choose among a large set of summary statistics based on a CDE<br />

surrogate loss. We provide theoretical and empirical evidence that justify ABC-CDE procedures<br />

that directly estimate and assess the posterior based on an initial ABC sample, and we describe<br />

settings where standard ABC and regression-based approaches are inadequate. Supplemental<br />

materials for this article are available online.<br />

Keywords: Nonparametric methods; Conditional density estimation; Approximate Bayesian computation;<br />

Likelihood-free inference<br />

12


Plenary Talks<br />

CF6<br />

Thursday, September 5th<br />

17:00<br />

Stationary Count Time Series<br />

Robert Lund<br />

Clemson University<br />

This talk overviews the modeling of stationary count time series, detailing some history and recent<br />

breakthroughs. Classical work involving the discrete and integer autoregressive moving-average<br />

model classes is first reviewed. Drawbacks with these models are illuminated and used to motivate<br />

two more modern approaches: copulas and construction from stationary sequences of zeroes and<br />

ones. What emerges are very flexible model classes that are naturally parsimonious, can have<br />

negative autocorrelations and/or long-memory features, and can be statistically fitted by likelihood,<br />

composite likelihood, and/or moment methods. Various applications are pursued, including a<br />

bivariate hurricane count model with Poisson components that are negatively correlated.<br />

13


Plenary Talks<br />

CF7<br />

Friday, September 6th<br />

10:30<br />

Price discovery and market microstructure noise<br />

Marcelo Fernandes<br />

FGV/EESP<br />

Using a continuous-time price discovery model, we show that the standard econometric framework<br />

typically yields inconsistent estimates of the price discovery measures in the presence of<br />

market microstructure noise due the usual errors-in-variable problem. We address this issue using<br />

instrumental variables. We devise two sets of valid instruments for alternative assumptions on<br />

the market microstructure noise, and then establish consistency and asymptotic normality of the<br />

corresponding price discovery measures. We illustrate our findings by investigating price discovery<br />

for Alcoa, showing that market leadership conclusions depend heavily on whether we account or<br />

not for market microstructure noise.<br />

14


Plenary Talks<br />

CF8<br />

Friday, September 6th<br />

11:30<br />

Wavelet estimation of the dimensionality of<br />

curve time series<br />

Aluísio Pinheiro<br />

IMECC/Unicamp<br />

Functional data analysis is ubiquitous in most areas of sciences and engineering. Several paradigms<br />

are proposed to deal with the dimensionality problem which is inherent to this type of data.<br />

Sparseness, penalization, thresholding, among other principles, have been used to tackle this issue.<br />

We discuss here a solution based on a finite-dimensional functional space. We employ wavelet<br />

representation of the functionals to estimate this finite dimension, and successfully model a time<br />

series of curves. The proposed method is shown to have nice asymptotic properties. Moreover,<br />

the wavelet representation permits the use of several bootstrap procedures, and it results in faster<br />

computing algorithms. Besides the theoretical and computational properties, simulation studies<br />

and application to real data sets are provided.<br />

Keywords: Aggregate data; Bootstrap testing; Finite dimension; Functional data analysis<br />

15


Thematic Sessions<br />

ST1: Data Science<br />

Chair: Marcelo Medeiros<br />

Wednesday, September 4th<br />

10:30<br />

Optimality of Spectral Methods for Ranking,<br />

Community Detections and Beyond<br />

Jianqing Fan<br />

Princeton University<br />

Spectral methods have been widely used for a large class of challenging problems, ranging from<br />

top-K ranking via pairwise comparisons, community detection, factor analysis, among others.<br />

Analyses of these spectral methods require super-norm perturbation analysis of top eigenvectors.<br />

This allows us to UNIFORMLY approximate elements in eigenvectors by linear functions of the<br />

observed random matrix that can be analyzed further. We first establish such an infinity-norm<br />

perturbation bound for top eigenvectors and apply the idea to several challenging problems such<br />

as top-K ranking, community detections, Z 2 -synchronization and matrix completion. We show<br />

that the spectral methods are indeed optimal for these problems. We illustrate these methods via<br />

simulations.<br />

16


Thematic Sessions<br />

ST1: Data Science<br />

Chair: Marcelo Medeiros<br />

Wednesday, September 4th<br />

10:30<br />

ArCo: An Artificial Counterfactual Approach for<br />

Aggregate Data<br />

Marcelo Medeiros<br />

PUC/Rio<br />

We consider a new method to conduct counterfactual analysis with aggregate data when a “treated”<br />

unit suffers a shock or an intervention, such as a policy change. The proposed approach is based<br />

on the construction of an artificial counterfactual from a pool of “untreated” peers, and is inspired<br />

by different branches of the literature such as: the Synthetic Control method, the Global Vector<br />

Autoregressive models, the econometrics of structural breaks, and the counterfactual analysis based<br />

on macro-econometric and panel data models. We derive an asymptotic Gaussian estimator for<br />

the average effect of the intervention and present a collection of companion hypothesis tests. We<br />

also discuss finite sample properties and conduct a detailed Monte Carlo experiment.<br />

17


Thematic Sessions<br />

ST1: Data Science<br />

Chair: Marcelo Medeiros<br />

Wednesday, September 4th<br />

10:30<br />

An Automated Approach Towards Sparse<br />

Single-Equation Cointegration Modelling<br />

Etienne Wijler<br />

Maastricht University – Netherlands<br />

In this paper we propose the Single-equation Penalized Error Correction Selector (SPECS) as<br />

an automated estimation procedure for dynamic single-equation models with a large number of<br />

potentially (co)integrated variables. By extending the classical single-equation error correction<br />

model, SPECS enables the researcher to model large cointegrated datasets without necessitating<br />

any form of pre-testing for the order of integration or cointegrating rank. We show that SPECS<br />

is able to consistently estimate an appropriate linear combination of the cointegrating vectors<br />

that may occur in the underlying DGP, while simultaneously enabling the correct recovery of<br />

sparsity patterns in the corresponding parameter space. A simulation study shows strong selective<br />

capabilities, as well as superior predictive performance in the context of nowcasting compared<br />

to high-dimensional models that ignore cointegration. An empirical application to nowcasting<br />

Dutch unemployment rates using Google Trends confirms the strong practical performance of our<br />

procedure.<br />

Keywords: SPECS; Penalized Regression; Single-Equation Error-Correction Model; Cointegration;<br />

High-Dimensional Data<br />

18


ST2: Nonlinear Time Series<br />

Chair: Aluisio Pinheiro and Pedro Morettin<br />

Thematic Sessions<br />

Wednesday, September 4th<br />

10:30<br />

The Effects of Estimation Sample Size in<br />

Forecast Performance: The Case of Brazilian<br />

Industrial Production Index<br />

Pedro L. Valls Pereira<br />

FGV/EESP&CEQEF<br />

Brazilian Industrial Production Index undergoes different methodological updates and periods of high<br />

inflation over time, which prompts researchers to avoid using too long industrial production series.<br />

We analyze how performance of different models in forecasting the Brazilian Industrial Production<br />

Index one-step ahead is influenced by the use of samples of different lengths. Relative performance<br />

of these models is also assessed. Results show that most models benefit from expanding the<br />

estimation sample beginning at least up to 1993:12. Autometrics lag selection with impulse<br />

dummy saturation forecasting performance is improved almost monotonically with sample size.<br />

For estimation starting in January 1975 and 1985, predictions from Autometrics with impulse<br />

dummy saturation and the average of forecasts are statistically more accurate than those from the<br />

benchmark AR model. However, the average of predictions performs better in the first half of the<br />

forecast horizon and Autometrics performs better in the second half.<br />

Keywords: Industrial production index; Nonlinear methods; Lag selection; Dummy saturation;<br />

Forecasting<br />

19


Thematic Sessions<br />

ST2: Nonlinear Time Series<br />

Chair: Aluisio Pinheiro and Pedro Morettin<br />

Wednesday, September 4th<br />

10:30<br />

Trend-Cycle Decompositions in<br />

Spatio-Temporal Point Processes<br />

Márcio Laurini<br />

FEARP/USP<br />

In this work we discuss the use of trend-cycle decompositions in spatio-temporal point processes.<br />

These decompositions allow to model the variation in the intensity function of log-Gaussian Cox<br />

processes in an intuitive way, allowing the representation of stationary and non-stationary processes<br />

of occurrence of events in space. Using Bayesian inference methods, we apply these decompositions<br />

to model climate change effects (spatio-temporal distribution of fires, thermal anomalies and<br />

tropical storms) and incidence of crimes in the metropolitan region of São Paulo.<br />

20


ST2: Nonlinear Time Series<br />

Chair: Aluisio Pinheiro and Pedro Morettin<br />

Thematic Sessions<br />

Wednesday, September 4th<br />

10:30<br />

Multiple Breakpoint Detection: Mixing<br />

Documented and Undocumented Changepoints<br />

Robert Lund<br />

Clemson University<br />

This talk presents methods to estimate the number of changepoint time(s) and their locations in time<br />

series when prior information is known about some of the changepoint times. A Bayesian version<br />

of a penalized likelihood objective function is developed from minimum description length (MDL)<br />

information theory principles. Optimizing the objective function yields estimates of the changepoint<br />

number(s) and location time(s). Our MDL penalty depends on where the changepoint(s) lie, but not<br />

solely on the total number of changepoints (such as classical AIC and BIC penalties). Specifically,<br />

configurations with changepoints that occur relatively closely to one and other are penalized more<br />

heavily than sparsely arranged changepoints. The techniques allow for autocorrelation in the<br />

observations and mean shifts at each changepoint time. This scenario arises in climate time series<br />

where a “metadata” record exists documenting some, but not necessarily all, of station move<br />

times and instrumentation changes. Applications to climate time series are presented throughout,<br />

including some recent controversies about Atlantic hurricane changes.<br />

21


Thematic Sessions<br />

ST3: High Dimensional Time Series<br />

SICREDI Session<br />

Chair: Flavio Ziegelmann<br />

Thursday, September 5th<br />

10:30<br />

Generalized Conjugate Processes: Lévy<br />

Diffusions and Financial Applications<br />

Eduardo Horta<br />

IME/UFRGS<br />

We consider sequences of Lévy Diffusions driven by a latent, discrete time state (possibly infinite<br />

dimensional). The proposed model is a generalization of Horta and Ziegelmann (Stochastic<br />

Processes and Applications, 2018). We show that the usual approach of estimating the covariance<br />

operator of the diffusion entails difficulties in this framework, and propose an alternative based on<br />

the functional Fourier transform. Asymptotic results are derived, and the theory is illustrated by an<br />

application to financial data.<br />

Keywords: Functional Time Series; High Frequency Financial Data; Conjugate Processes; Random<br />

measure<br />

22


ST3: High Dimensional Time Series<br />

SICREDI Session<br />

Chair: Flavio Ziegelmann<br />

Thematic Sessions<br />

Thursday, September 5th<br />

10:30<br />

Testing for high-dimensional white noise using<br />

maximum cross-correlations<br />

Jinyuan Chang<br />

Southwestern University of Finance and Economics<br />

We propose a new omnibus test for vector white noise using the maximum absolute autocorrelations<br />

and cross-correlations of the component series. Based on an approximation by the L ∞ -norm of<br />

a normal random vector, the critical value of the test can be evaluated by bootstrapping from a<br />

multivariate normal distribution. In contrast to the conventional white noise test, the new method<br />

is proved to be valid for testing departure from white noise that is not independent and identically<br />

distributed.We illustrate the accuracy and the power of the proposed test by simulation, which<br />

also shows that the new test outperforms several commonly used methods, including the Lagrange<br />

multiplier test and the multivariate Box-Pierce portmanteau tests, especially when the dimension of<br />

the time series is high in relation to the sample size. The numerical results also indicate that the<br />

performance of the new test can be further enhanced when it is applied to pre-transformed data<br />

obtained via the time series principal component analysis proposed by Chang, Guo and Yao (2018,<br />

Annals of Statistics). The proposed procedures have been implemented in an R package.<br />

23


Thematic Sessions<br />

ST3: High Dimensional Time Series<br />

SICREDI Session<br />

Chair: Flavio Ziegelmann<br />

Thursday, September 5th<br />

10:30<br />

High Dimensional and Banded Vector<br />

Autoregressions<br />

Qiwei Yao<br />

London School of Economics<br />

We first consider a class of vector autoregressive models with banded coefficient matrices. The<br />

setting represents a type of sparse structure for high-dimensional time series, though the implied<br />

autocovariance matrices are not banded. The structure is also practically meaningful when the order<br />

of component time series is arranged appropriately. We then consider such a banded autoregression<br />

in the context of spatio-temporal modelling, for which the conventional least squares estimation<br />

is no longer valid. Instead we apply the least squares method based on a Yule-Walker equation<br />

to estimate autoregressive coefficient matrices. Illustration with both simulated and real data<br />

examples will be presented.<br />

24


Thematic Sessions<br />

ST4: Econometrics<br />

Chair: Marcelo Fernandes<br />

Thursday, September 5th<br />

10:30<br />

Nonparametric testing of conditional<br />

independence using asymmetric kernels<br />

Eduardo Mendes<br />

FGV/RJ<br />

Statistical tools for testing conditional independence between X and Y given Z are developed. In<br />

particular, we test whether the conditional density of X given Y and Z is equal to the conditional<br />

density of X given Z only. We gauge the closeness between these conditional densities using a<br />

generalized entropic measure. To avoid degeneracy issues, we transform the variables of interest<br />

(X, Y, Z) to bound them in the unit interval, and then estimate their conditional densities using<br />

beta kernels. The latter are convenient because they are free of boundary bias. We show that our<br />

test statistics are asymptotically normal under the null hypothesis as well as under local alternatives.<br />

We assess the finite-sample properties of our entropic-based tests of conditional independence<br />

through Monte Carlo simulations.<br />

25


Thematic Sessions<br />

ST4: Econometrics<br />

Chair: Marcelo Fernandes<br />

Thursday, September 5th<br />

10:30<br />

Semiparametric Quantile Models for Ascending<br />

Auctions with Asymmetric Bidders<br />

Nathalie Gimenes<br />

PUC/Rio<br />

Asymmetry is a relevant question when bidders of different sizes and technological capability are<br />

competing at the same auction. This issue is especially important if the econometrician provides<br />

the seller with a policy recommendation (auction optimal design) based on a misspecified symmetric<br />

setup, which may bring a significant expected loss to the seller, depending on the degree of<br />

asymmetry. Therefore, a parsimonious and easy estimation approach that accounts for bidders<br />

asymmetry can be very useful for policy analysis. In this paper, we suggest an identification and<br />

estimation approach to recover the latent private value conditional quantile function when bidders<br />

are asymmetric. The estimation strategy is done in two steps: in the first-step, the asymmetric<br />

parameters are estimated via maximum likelihood method; and then used in the second-step to<br />

estimate the type private value conditional quantile functions. The methodology is illustrated using<br />

USFS timber ascending auctions. According to our estimates, Loggers (firms lacking technological<br />

capability to process the timber) provides the US Government with an expected revenue on average<br />

14% lower than Mills.<br />

Keywords: Private values; Asymmetry; Ascending auctions; Seller expected revenue; Quantile<br />

regression identification; Quantile regression estimation<br />

26


Thematic Sessions<br />

ST4: Econometrics<br />

Chair: Marcelo Fernandes<br />

Thursday, September 5th<br />

10:30<br />

A novel framework for semi-automatic text<br />

classification<br />

Rodrigo Targino<br />

FGV/RJ<br />

The Economic Policy Uncertainty (EPU) index, proposed by Baker et al. (2016), is computed as a<br />

proportion of news articles related to this topic. In the original paper the classification of a news<br />

article as EPU related is performed automatically: if the article contains a set of specific words, it<br />

is classified in the topic. Motivated by a deeper understanding of the drivers of the EPU index, we<br />

propose a semi-automatic algorithm for text classification and analysis. Given a set of documents<br />

manually classified we are able to (1) infer the time series with the importance of each word for<br />

the specific classification and (2) compute the probability of a non-classified document to belong<br />

to the category. As an example we apply the algorithm to millions of Brazilian news articles, with a<br />

few hundreds manually classified as EPU related or not.<br />

27


Oral Communications<br />

CO1<br />

Tuesday, September 3rd<br />

19:45<br />

Testing for Mean-Reversion in Bitcoin returns<br />

with Gibbs-sampling-augmented randomization<br />

Fernando Henrique de Paula e Silva Mendes<br />

UFRGS<br />

Douglas Turatti<br />

João F. Caldeira<br />

In this paper we test for the presence of mean-reversion in the dynamics of Bitcoin log-returns.<br />

Recent studies have found that cryptocurrencies volatility exhibits clustering and leverage effect<br />

commonly observed in financial time-series. A recent strand of research studies the volatility<br />

dynamics of Bitcoin returns using regime-switching models. This approach is useful for capturing<br />

shifts and turning points in the volatility process that is difficult to accommodate by GARCH-type<br />

models. In the present paper we attempt to contribute to the empirical analysis of regime changes<br />

of Bitcoin volatility using Markov-switching models. Our main purpose is to verify whether the<br />

log-returns of Bitcoin are mean-reverted in the presence of heteroskedastic disturbances driven<br />

by a mixture distribution. To tackle this problem we use a Bayesian Gibbs-Sampling augmented<br />

randomization methodology initially proposed by Kim and Nelson (1998) inside an ordinary Gibbssampling<br />

estimation procedure. In general, our results indicated that Bitcoin is strongly mean-avert<br />

for different returns horizons, model specifications and for sub-sample periods, which show the<br />

explosive characteristic of the Bitcoin in the period of analysis from 2010 to 2019.<br />

Keywords: Autoregression tests; Mean-reversion in Bitcoin market; Markov-switching models;<br />

Gibbs-sampling-augmented randomization<br />

28


Oral Communications<br />

CO1<br />

Tuesday, September 3rd<br />

19:45<br />

Analysis of a complex network: effects of<br />

volatility among commodities in the short term<br />

Marcelo de Oliveira Passos<br />

UFPel<br />

Mathiaz Schneid Tessmann<br />

Lisa Mariane Bueno<br />

Regis Augusto Ely<br />

Márcio Taceli Taveira<br />

The purpose of this paper is to generate a complex network from volatility spillover data between<br />

ten of the major energy and agricultural commodities traded on the Chicago Commodity Exchange.<br />

Spillover indices proposed by Diebold and Yilmaz (2012) are used, as well as non-parametric<br />

complex network statistics distributed in a layout obtained by the Force Atlas 2 layout algorithm.<br />

The results show that there is a concentration in the main cluster and that There are two cycles.<br />

The main cluster is dense and has thicker edges, reflecting the most relevant volatility transmissions<br />

between corn, wheat, soy, oats and rice assets. In the two cycles, with thinner edges than those of<br />

the main cluster, are the oil-gas and coffee-sugar binomials. Cotton is the only asset that does not<br />

belong to the two cycles or the main cluster, so it is the least relevant among the ten commodities<br />

analyzed.<br />

Keywords: Commodity market; Volatility spillovers; Complex network; Force Atlas 2; Diebold-<br />

Yilmaz index<br />

29


Oral Communications<br />

CO1<br />

Tuesday, September 3rd<br />

19:45<br />

On the subprime crisis and the Latin American<br />

financial markets: A regime switching<br />

skew-normal approach<br />

Andreza Aparecida Palma<br />

UFSCar<br />

Diego Ferreira<br />

This paper analyzes the potential occurrence of financial contagion in Latin American markets<br />

from the recent US subprime crisis. Distinctively from the usual empirical approaches for contagion<br />

analyses, a regime-switching skew-normal (RSSN) model is implemented in order to assess both<br />

correlation and coskewness contagion as well as investigate the occurrence of structural breaks in<br />

the moments of the mean, variance and skewness. Even though correlation contagion was observed<br />

in all selected Latin American markets, coskewness contagion was only detected in Brazil. Variance<br />

structural breaks were found in all financial markets while structural breaks in the mean were only<br />

detected in Argentinian, Mexican and the US markets. Yet, joint contagion and structural break<br />

tests suggested the occurrence of these phenomena in all considered markets.<br />

Keywords: Financial Contagion; Regime Switching; Skew-Normal Distribution; Bayesian Estimation;<br />

Latin America<br />

30


Oral Communications<br />

CO2<br />

Tuesday, September 3rd<br />

19:45<br />

Nonparametric short- and long-run<br />

Granger-causality testing in the frequency<br />

domain<br />

Cleiton Guollo Taufemback<br />

UFRGS<br />

We propose on this paper a novel nonparametric frequency Granger-causality test. Before testing<br />

for causality absence of one series on to another, we apply a filtering process, removing any<br />

presence of reverse causality. Then, performing a local kernel regression for each frequency, we<br />

can test the hypothesis of non-causality from the distance between each estimate to zero. We<br />

provide asymptotic results for strict stationary series respecting α-mixing conditions. Monte Carlo<br />

experiments illustrate that our method has comparable performance with other alternative methods<br />

present in the literature and superior performance whenever the tested model presents smooth<br />

transition coefficients in the frequency domain. Finally, we test causality of term spread and money<br />

stock (M2) on real economic growth, as well as, between Monetary Policy Variables and Stock<br />

Prices.<br />

Keywords: Granger-causality; Frequency-domain; Nonparametric test; Alpha-mixing<br />

31


Oral Communications<br />

CO2<br />

Tuesday, September 3rd<br />

19:45<br />

On the behavior of the DFA and DCCA in<br />

trend-stationary processes<br />

Taiane Schaedler Prass<br />

IME/UFRGS<br />

Guilherme Pumi<br />

In this work we develop the theory of Detrended Fluctuation Analysis (DFA) and Detrended Cross-<br />

Correlation Analysis (DCCA) for trend-stationary stochastic processes without any assumption<br />

on the specific form of the underlying distribution. All results are derived without the assumption<br />

of non-overlapping boxes for the polynomial fits. We show that by considering the appropriate<br />

polynomial regression, the DFA and the DCCA of a pure stationary process is the same as the<br />

DFA and the DCCA of the same process plus a polynomial trend. We prove the stationarity of<br />

the DFA and DCCA, viewed as a stochastic processes, obtain closed forms for moments up to<br />

second order, including the covariance structure for DFA and DCCA and a miscellany of law of<br />

large number related results. To verify the behavior of our theoretical results in small samples, we<br />

present a Monte Carlo simulation study and an empirical application.<br />

Keywords: Trend-stationary time series; DCCA; Cross-correlation<br />

32


Oral Communications<br />

CO2<br />

Tuesday, September 3rd<br />

19:45<br />

A Dynamic Model for Double Bounded Time<br />

Series With Chaotic Driven Conditional<br />

Averages<br />

Rafael Rigão Souza<br />

IME/UFRGS<br />

Guilherme Pumi<br />

Taiane Schaedler Prass<br />

In this work we introduce a class of dynamic models for time series taking values on the unit<br />

interval. The proposed model follows a generalized linear model approach where the random<br />

component, conditioned on the past information, follows a beta distribution, while the conditional<br />

mean specification may include covariates and also an extra additive term given by the iteration of<br />

a map that can present chaotic behavior. This extra term can present a wide variety of behaviors<br />

including attracting and/or repelling fixed or periodic points, presence or absence of absolutely<br />

continuous invariant measure, etc. The resulting model is very flexible and its systematic component<br />

can accommodate short and long range dependence, periodic behavior, laminar phases, etc. We<br />

derive sufficient conditions for the stationarity of the proposed model, as well as conditions for<br />

the law of large numbers and a Birkhoff-type theorem to hold. We also discuss partial maximum<br />

likelihood inference and present some examples. A Monte Carlo simulation study is performed to<br />

assess the finite sample behavior of the proposed estimation procedure.<br />

Keywords: Séries temporais; Processos caóticos; Sistemas dinâmicos; Modelos lineares generalizados<br />

33


Oral Communications<br />

CO3<br />

Wednesday, September 4th<br />

18:00<br />

Estimating long memory stochastic volatility<br />

models using integrated nested Laplace<br />

approximations<br />

Pedro Luiz Paolino Chaim<br />

FEARP/USP<br />

Márcio Laurini<br />

In this work we discuss the use of integrated nested Laplace approximations to perform the<br />

estimation of stochastic volatility models with long memory. Log volatility persistence is given by a<br />

Fractional Gaussian Noise process, which is approximated as a linear combination of independent<br />

1st-order autoregressive processes that has a Gaussian Markov Random Field representation. We<br />

show that this approach is computationally ecient, and performs comparable to a Markov Chain<br />

Monte Carlo estimator. We used this methodology to estimate the volatility dependency patterns<br />

for the S&P500 index and the most important cryptocurrencies, analyzing the in-sample t and<br />

the construction of out-of-sample forecasts. We also show that this method can be used for the<br />

construction of realized volatility measurements using high frequency data, showing the optimal<br />

computational performance of the proposed method.<br />

Keywords: Long Memory; Gaussian Markov Random Field; Laplace Approximations; Volatility<br />

Forecasting<br />

34


Oral Communications<br />

CO3<br />

Wednesday, September 4th<br />

18:00<br />

Modeling and forecasting long memory<br />

stochastic volatility<br />

Omar Muhieddine Franco Abbara<br />

Mauricio Zevallos<br />

MFA<br />

Stochastic Volatility (SV) models are an alternative to GARCH models for estimating volatility,<br />

and the main objective of this work is to propose a new method to estimate a univariate Long<br />

Memory Stochastic Volatility (LMSV) model. This model is an extension the SV model where the<br />

volatility presents long memory. We write the LMSV model in state space representation with non<br />

Gaussian perturbations in the observation equation and the estimation of parameters is performed<br />

by maximum likelihood. We obtained a Kalman filter algorithm and we propose procedures for<br />

diagnostics and forecasting volatility. We assess the proposal by Monte Carlo experiments and we<br />

applied in real-life time series where an illustration of market risk calculation is presented.<br />

Keywords: Volatility; Long memory; Forecasting<br />

35


Oral Communications<br />

CO3<br />

Wednesday, September 4th<br />

18:00<br />

Non-Gaussian Stochastic Volatility Model with<br />

Jumps via Gibbs Sampler<br />

Thiago Rezende dos Santos<br />

UFMG<br />

Arthur T. Rego<br />

In this work, we propose a model for estimating volatility from financial time series, extending the<br />

non-Gaussian family of space-state models with exact marginal likelihood introduced by Gamerman,<br />

Santos and Franco (2013). On the literature there are models focused on estimating financial<br />

assets risk; however, most of them rely on MCMC methods based on Metropolis algorithms, since<br />

full conditional posterior distributions are not known. We present an alternative model capable of<br />

estimating the volatility, automatically, since all full conditional posterior distributions are known,<br />

and it is possible to obtain an exact sample of parameters via Gibbs Sampler. The incorporation<br />

of jumps in returns allows the model to capture speculative movements of the data so that their<br />

influence does not propagate to volatility. We evaluate the performance of the algorithm using<br />

synthetic and real data time series.<br />

Keywords: Financial time series; Stochastic volatility; Gibbs Sampler; Dynamic linear models;<br />

Bayesian inference<br />

36


Oral Communications<br />

CO3<br />

Wednesday, September 4th<br />

18:00<br />

Stable Randomized Generalized Autoregressive<br />

Conditional Heteroskedastic Models<br />

Jhames Matos Sampaio<br />

UnB<br />

Pedro Alberto Morettin<br />

GARCH models are well known and often used in time series and finance with the aim of describing<br />

volatility. GARCH models are heavy-tailed distributed, with time-dependent conditional variance.<br />

Also, we can model clustering of volatility. Despite the good properties mentioned previ- ously,<br />

GARCH models are built in a way that imposes some limits on the heaviness of the tails of<br />

their unconditional distribution. The class of Randomized Generalized Autoregressive Conditional<br />

Heteroskedastic (R-GARCH) is a generalization of the GARCH which adds to the volatility also<br />

a term that is random. In fact, it is assumed that this term has stable distribution. Clearly the<br />

R-GARCH models includes the class of GARCH models. In this paper, we propose the class of<br />

SR-GARCH models, where both returns and volatility have stable distribution. Theoretical results,<br />

estimation methods and empirical analysis of SR-GARCH models are the focus of this work. We<br />

present the indirect inference method to estimate the SR-GARCH models, some simulations and<br />

an empirical application.<br />

Keywords: Indirect Inference; Stable Distribution; SR-GARCH; Volatility Models<br />

37


Oral Communications<br />

CO4<br />

Wednesday, September 4th<br />

18:00<br />

Testando as Implicações dos Modelos de<br />

Consumo com o uso do Modelo de Fator<br />

Estocástico de Desconto<br />

Marcel Stanlei Monteiro<br />

Carlos Enrique Carrasco-Gutierrez<br />

UCB<br />

Este artigo tem como objetivo testar os modelos de consumo agregado, incorporando, na análise,<br />

o modelo de Fator Estocástico de Desconto – SDF descrito na literatura de finanças. Assim, para<br />

a realização das análises, consideramos a existência de uma parcela da população míope e outra<br />

otimizadora que faz escolhas intertemporais segundo o modelo CCAPM como descrito por Lucas<br />

(1978). Os modelos SDF foram estimados com a utilização de toda a base de ativos financeiros<br />

disponíveis na BM&FBOVESPA no período de 1996Q1 a 2016Q4. Os resultados demonstram<br />

que os parâmetros do modelo de consumo com Hábito Externo foi o que melhor respondeu às<br />

hipóteses relacionadas à modelagem proposta.<br />

Keywords: Rule of Thumb; Modelos de consumo; Fator Estocástico de Desconto<br />

38


Oral Communications<br />

CO4<br />

Wednesday, September 4th<br />

18:00<br />

Machine learning methods for inflation<br />

forecasting in Brazil: new contenders versus<br />

classical models<br />

Gustavo Silva Araujo<br />

BACEN<br />

Wagner Piazza Gaglianone<br />

We conduct an extensive out-of-sample forecasting exercise, across a variety of machine learning<br />

techniques and traditional econometric models, with the objective of building accurate forecasts of<br />

the Brazilian consumer prices inflation at multiple horizons. A large database of macroeconomic<br />

and financial variables is employed as input to the competing methods. The results corroborate<br />

recent findings in favor of the nonlinear automated procedures, indicating that machine learning<br />

algorithms (in particular, random forest) can outperform traditional forecasting methods in terms of<br />

mean-squared error. The main reason is that some machine learning methods can yield a sizeable<br />

reduction in the forecast bias, while keeping the forecast variance under control. As result, forecast<br />

accuracy can be improved over traditional inflation forecasting models. These findings offer a<br />

valuable contribution to the eld of macroeconomic forecasting, and provide alternative methods to<br />

the usual statistical models often based on linear statistical relationships.<br />

Keywords: Machine Learning; Elastic Net; Lasso; Ridge Regression; Random Forest<br />

39


Oral Communications<br />

CO4<br />

Wednesday, September 4th<br />

18:00<br />

The non-linear relationship between oil prices<br />

and stock prices: Evidence from oil-importing<br />

and oil-exporting countries<br />

Diego Pitta de Jesus<br />

PPGE/UFPB<br />

Bruno Felipe Lenin Souza Bezerra<br />

Cássio da Nóbrega Besarria<br />

This paper investigates the long-run dynamics between stock prices and oil prices over the period<br />

from 13 March 2001 to 25 August 2017 using two approaches: the first includes the structural<br />

breaks in the relationship between the variables in a Dynamic Ordinary Least Squares (DOLS). The<br />

other approach verifies the existence of cointegration and asymmetry using a Markov-Switching<br />

model. The main results indicate that when we use non-linear approaches, we can find cointegration<br />

and asymmetry. For oil-exporting countries was found a positive long-term relationship between<br />

oil prices and stock prices, in this case, the wealth effect prevailing for these countries. For<br />

oil-importing countries that are developed economies, a negative signal was found, confirming that<br />

in these economies the business cost channel prevails. But the oil-importing countries that are<br />

emerging economies have found a positive sign in the long-term relationship, probably due to the<br />

economic cycle.<br />

Keywords: Crude oil; Stock markets; Cointegration<br />

40


Oral Communications<br />

CO4<br />

Wednesday, September 4th<br />

18:00<br />

Unemployment Duration in Brazilian<br />

Metropolitan Cities: a Censored Quantile<br />

Regression Approach<br />

Wilton Bernardino da Silva<br />

Ana Katarina Campelo<br />

Rafael Moura Azevedo<br />

UFPE<br />

Chauduri, Doksum and Samarov (1997) emphasize that the quantile regression vector β(τ) is<br />

“a unifying concept that represents the coefficient vectors in the linear, Cox, proportional odds,<br />

accelerated failure time model and so on”. In addition, the advantages of the quantile regression<br />

technique is considered by estimating these models for comparative analysis with the quantile<br />

treatment effect derived from the Cox proportional hazards model. The results reveal that the<br />

age factor is irrelevant to the unemployment duration, along with this duration is lower across all<br />

quantiles for people who have previously worked, as well as for individuals who hold any degree,<br />

notably those who have postgraduate degrees. This last conclusion differs from earlier works, which<br />

suggest an average positive effect for years of education. Furthermore, unemployment spells tend<br />

to be longer in all sectors of activities considered, relative to those less representative ones in the<br />

labor market and domestic services. Finally, another very interesting result is that the duration<br />

tends to be shorter for individuals residing in the metropolitan areas of Recife, Belo Horizonte and<br />

Porto Alegre, compared to those living in Salvador, Rio de Janeiro and São Paulo. This latter<br />

evidence also differs from previous results reported in the literature.<br />

Keywords: Unemployment duration in Brazil; Quantile regression for survival analysis; Quantile<br />

treatment effect in the Cox model<br />

41


Oral Communications<br />

CO5<br />

Thursday, September 5th<br />

18:00<br />

DSGE Estimation using Generalized Empirical<br />

Likelihood and Generalized Minimum Contrast<br />

Gilberto Oliveira Boaretto<br />

PUC/Rio<br />

Márcio Laurini<br />

The objective of this work is to investigate the performance of moment-based estimators of<br />

the generalized empirical likelihood (GEL) and generalized minimum contrast (GMC) families in<br />

estimation of dynamic stochastic general equilibrium (DSGE) models, with special attention to<br />

the robustness properties under misspecification. As benchmark we used generalized method of<br />

moments (GMM), maximum likelihood (ML) and Bayesian inference (BI).We work with a real<br />

business cycle (RBC) model considered the core of DSGE models and that has a smaller number<br />

of parameters, which facilitates a analysis of the estimators. From the Monte Carlo experiments<br />

we found that (i) empirical likelihood (EL) estimator - as well as its version with smoothed moment<br />

conditions (SEL) - and Bayesian inference (BI) obtained, in that order, the best performances,<br />

including misspecification cases; (ii) continuous updating empirical likelihood (CUE), minimum<br />

Hellinger distance (HD), exponential tilting (ET) estimators and their smoothed versions exhibit<br />

intermediate comparative performance; (iii) performance of exponentially tilted empirical likelihood<br />

(ETEL), exponential tilting Hellinger distance (ETHD) and its smoothed versions was seriously<br />

compromised by atypical estimates; (iv) smoothed and non-smoothed GEL/GMC estimators exhibit<br />

very similar performances; (v) GMM, especially in over-identified case, and ML estimators performed<br />

worse than their competitors.<br />

Keywords: Dynamic stochastic general equilibrium models; Method of moments; Empirical<br />

likelihood; Minimum contrast; Robustness<br />

42


Oral Communications<br />

CO5<br />

Thursday, September 5th<br />

18:00<br />

A Conway-Maxwell-Poisson GARMA Model for<br />

Count Time Series Data<br />

Ricardo Sandes Ehlers<br />

ICMC/USP<br />

We propose a flexible model for count time series which has potential uses for both underdispersed<br />

and overdispersed data. The model is based on the Conway-Maxwell-Poisson (COM-Poisson)<br />

distribution with parameters varying along time to take serial correlation into account. Model<br />

estimation is challenging however and require the application of recently proposed methods to<br />

deal with the intractable normalising constant as well as efficiently sampling values from the<br />

COM-Poisson distribution.<br />

Keywords: Bayesian methods; COM-Poisson; Generalized ARMA; Intractable likelihood<br />

43


Oral Communications<br />

CO5<br />

Thursday, September 5th<br />

18:00<br />

Generalized Additive model for count time<br />

series: An application to study the impact of air<br />

pollutants on human health<br />

Ana Júlia Alves Câmara<br />

ICEx/UFMG<br />

Glaura da Concei¸cão Franco<br />

Valdério Anselmo Reisen<br />

The GAM model has been used in many epidemiological studies where frequently the response<br />

variable is a nonnegative integer-valued time series. However, GAM assumes that the observations<br />

are independent, which is generally not the case in time series. Therefore, in this work, we<br />

propose the Generalized Additive Autoregressive Moving Average (GAM-ARMA) model, which<br />

is an extension of GAM with an autoregressive moving average component. The GAM-ARMA<br />

is based on the GLARMA model, with some linear components of GLARMA being replaced by<br />

natural splines. To evaluate the performance of the GAM-ARMA we performed two simulation<br />

studies which showed that in general the estimates presented small bias and mean squared error.<br />

In a real data analysis of the effects of air pollution on respiratory disease in Belo Horizonte, Brazil,<br />

we observed that the proposed model presented a better fit when compared to the widely used<br />

GAM approach.<br />

Keywords: Arima models; Semi-parametric models; Respiratory diseases; Principal component<br />

analysis; Relative Risk<br />

44


Oral Communications<br />

CO5<br />

Thursday, September 5th<br />

18:00<br />

Optimized particle-based algorithms for state<br />

filtering and parameter learning<br />

Uriel Moreira Silva<br />

UFMG<br />

Felipe Carvalho álvares da Silva<br />

Denise Bulgarelli Duczmal<br />

Luiz Henrique Duczmal<br />

In this work we present optimal implementation guidelines for sequential Monte Carlo methods in<br />

state-space models with the presence of unknown static parameters. We study in detail typical<br />

examples of degeneration and propose computationally efficient solutions capable of improving the<br />

performance of the filtering devices. First, an alternative interpretation of the artificial rejuvenation<br />

concept explored by most traditional approaches is provided. We then explore the concept of fertility<br />

factors in this context and introduce dynamic renewal and regularized resampling schemes, which<br />

reduce the selective pressure on the particle set and also the number of resampling steps necessary in<br />

the filtering algorithm (thus reducing the set’s susceptibility to degeneracy and increasing efficiency).<br />

Finally, we provide empirical and simulation-based evidence that simple particle approximations<br />

built upon these concepts can satisfactorily deal with complex parameter estimation problems such<br />

as relative abundance ecological models.<br />

Keywords: Particle filters; Bayesian filtering; Parameter learning; Fertility factors; Regularized<br />

resampling<br />

45


Oral Communications<br />

CO6<br />

Thursday, September 5th<br />

18:00<br />

A Bootstrap Approach for Generalized<br />

Autocontour Testing. Implications for VIX<br />

Forecast Densities<br />

João Henrique Gonçalves Mazzeu<br />

IMECC/Unicamp<br />

Gloria González-Rivera Esther Ruiz Helena Veiga<br />

We propose an extension of the Generalized Autocontour (G-ACR) tests for dynamic specification<br />

of in-sample conditional densities and for evaluation of out-of-sample forecast densities. The new<br />

tests are based on probability integral transforms (PITs) computed from bootstrap conditional<br />

densities that incorporate parameter uncertainty. Then, the parametric specification of the<br />

conditional moments can be tested without relying on any parametric error distribution yet exploiting<br />

distributional properties of the variable of interest. We show that the finite sample distribution<br />

of the bootstrapped G-ACR (BG-ACR) tests are well approximated using standard asymptotic<br />

distributions. Furthermore, the proposed tests are easy to implement and are accompanied by<br />

graphical tools that provide information about the potential sources of misspecification. We apply<br />

the BG-ACR tests to the Heterogeneous Autoregressive (HAR) model and the Multiplicative Error<br />

Model (MEM) of the U.S. volatility index VIX. We find strong evidence against the parametric<br />

assumptions of the conditional densities, i.e. normality in the HAR model and semi non-parametric<br />

Gamma (GSNP) in the MEM. In both cases, the true conditional density seems to be more skewed<br />

to the right and more peaked than either normal or GSNP densities, with location, variance and<br />

skewness changing over time. The preferred specification is the heteroscedastic HAR model with<br />

bootstrap conditional densities of the log-VIX.<br />

Keywords: Distribution Uncertainty; Model Evaluation; Parameter Uncertainty; PIT<br />

46


Oral Communications<br />

CO6<br />

Thursday, September 5th<br />

18:00<br />

GROEC: Combination method via Generalized<br />

Rolling Origin Evaluation<br />

José Augusto Fiorucci<br />

UnB<br />

Francisco Louzada Neto<br />

Combination methods have performed well in time series forecast competitions. This study<br />

proposes a simple but general methodology to combine time series forecast methods. Weights<br />

are calculated using a cross-validation scheme that assigns greater weights to methods with more<br />

accurate in-sample predictions. The methodology was applied to combine forecasts from Theta,<br />

Exponential Smoothing, and ARIMA models, placing fifth in the M4 Competition for point and<br />

interval forecasting.<br />

Keywords: M4 Competition; Time Series Forecasting; Combination Method; Rolling Origin<br />

Evaluation; Makridaks Competitions<br />

47


Oral Communications<br />

CO6<br />

Thursday, September 5th<br />

18:00<br />

Dynamic VAR Model-Based Control Charts for<br />

Batch Process Monitoring<br />

Marcio Valk<br />

IME/UFRGS<br />

Danilo Marcondes Filho<br />

In the field of Statistical Process Control (SPC) there are several different approaches to deal<br />

with monitoring of batch processes. Such processes present a three-way data structure (batches x<br />

variables x time-instants), so that for each batch a multivariate time series is available. Traditional<br />

approaches do not take into account the time series nature of the data. They deal with this kind of<br />

data by applying multivariate techniques in a reduced two-way data structure, in order to capture<br />

variables dynamics in some way. Recent developments in SPC have proposed the use of the Vector<br />

Autoregressive (VAR) time series model considering the original three-way structure. However,<br />

they are restricted to control approaches focused on VAR residuals. This paper proposes a new<br />

approach to deal with batch processes using the VAR model, but focusing on coefficients instead of<br />

residuals. Through a simulated batch process, we illustrate the better performance of our approach<br />

over the residual-based control charts in both offline and online context.<br />

Keywords: Multivariate Statistical Process Control; Vector Autoregressive Model; Batch Process;<br />

Control Charts<br />

48


Oral Communications<br />

CO6<br />

Thursday, September 5th<br />

18:00<br />

On the robustness of the general dynamic<br />

factor model with infinite-dimensional space:<br />

identification, estimation and forecasting<br />

Luiz Koodi Hotta<br />

IMECC/Unicamp<br />

Carlos Trucíos<br />

Pedro L. Valls Pereira<br />

João Henrique Gon¸calves Mazzeu<br />

Marc Hallin<br />

General dynamic factor models (GDFM) have shown to be a promising tool to circumvent the<br />

curse of dimensionality in time series and have been successfully applied in many economic and<br />

financial applications. However, their performance in the presence of outliers has not been analyzed<br />

yet. In this paper, we study the impact of additive outliers on the identification, estimation and<br />

forecasting performance of GDFM. Based on our findings, we propose a robustified version of the<br />

procedures introduced by Hallin and Liska (2007, JASA 102(478): 603-617), Forni et al. (2015, J<br />

Econom 185(2): 359-373) and Forni et al. (2017, J Econom 199(1): 74-92). Our proposal is<br />

evaluated via Monte Carlo experiments and in empirical data.<br />

Keywords: Dimension reduction; Large dimension volatility; Large panels<br />

49


Poster Communications<br />

SP1<br />

Wednesday, September 4th<br />

19:45<br />

Bayesian Dynamic Models for Count Data with<br />

Overdispersion and Inflation of Zeros<br />

Victor Schmidt Comitti<br />

IF Sudeste/MG<br />

Thiago Rezende dos Santos<br />

Fabio Nogueira Demarqui<br />

Most of the proposed dynamic parameter-driven models for count time series assume a Poisson<br />

distribution for the observations ignoring, sometimes, problems related to overdispersion and zero<br />

inflation in the data. The objective of this paper is to introduce new Bayesian dynamic models for<br />

count time series to overcome this problem. A family of Bayesian dynamic uniparametric models<br />

for count data is introduced whose particular cases are the Bell, Poisson-Lindley, Yule-Simon<br />

and Borel models. Furthermore, a biparametric Negative binomial model with unknown shape<br />

parameter is provided. The inferential procedure preserves the sequential analysis of the models and<br />

is similar to the Dynamic Generalized Linear Models (DGLM) with a novel of incorporating Monte<br />

Carlo integration to the recursive algorithm in order to deal with the intractability of the updating<br />

distributions. The simulation results show a good performance of the estimators considered for<br />

the static parameter of the biparametric Negative binomial model with unknown shape parameter,<br />

which can be reasonably estimated. The application results also highlights a better performance of<br />

the proposed uni/biparametric models over the Poisson model.<br />

Keywords: Dynamic generalized linear model; Bayesian Inference; Parameter Driven Model<br />

50


Poster Communications<br />

SP1<br />

Wednesday, September 4th<br />

19:45<br />

Support Vector Machine Applied in the Study<br />

of Financial Time Series<br />

Paulo Henrique Sales Guimarães<br />

UFLA<br />

Os modelos de aprendizagem de máquinas (Machine Learning-ML) vêm ganhando cada vez mais<br />

notoriedade em diversas áreas do conhecimento, pois devido a sua flexibilidade e não suposições de<br />

distribuição, além de grande adaptabilidade, conseguem fazer classificações e predições a diversos<br />

tipos de dados. As Support Vector Machines (Máquinas de vetores de suporte) fazem parte do<br />

ML. Constituem uma técnica que vem recebendo crescente atenção nos últimos anos, podendo<br />

ser utilizada em diversas tarefas de reconhecimento de padrões, obtendo resultados superiores aos<br />

alcançados por outras técnicas de aprendizado em várias aplicações. Neste trabalho é feito uma<br />

comparação ao ajuste de modelos de volatilidade (GARCH) no qual é feito uma comparação com<br />

a técnica de Support Vector Machine.<br />

Keywords: Machine Learning; Volatilidade; Retornos<br />

51


Poster Communications<br />

SP1<br />

Wednesday, September 4th<br />

19:45<br />

A Liberdade como condicionante do<br />

Desenvolvimento Humano: Uma análise de<br />

dados em painel para os países da América<br />

Latina e do Caribe no período de 2005 a 2016<br />

Daniel Arruda Coronel<br />

UFSM<br />

Angel Maitê Bobato<br />

Fabiana Barros Correia<br />

Elisangela Gelatti<br />

Adeilson Elias Souza<br />

A abordagem Seniana considera as liberdades como promotora de desenvolvimento, devido a isso,<br />

o objetivo desta pesquisa é analisar a liberdade como condicionante do desenvolvimento humano<br />

na região da América Latina e Caribe no período de 2005 a 2016. Para isso, foi utilizado o índice<br />

de Desenvolvimento Humano e como proxy para as liberdades foi utilizado o índice de Liberdade<br />

Econômica publicado pela Fundação Heritage, com esses dados foi realizada uma análise descritiva<br />

e a construção de um painel de dados com vinte e nove países da América Latina e Caribe. Foi<br />

constatado que existe uma relação positiva entre as liberdades e o desenvolvimento humano na<br />

região analisada.<br />

Keywords: Liberdade; Desenvolvimento Humano; Dados em Painel; América Latina e Caribe<br />

52


Poster Communications<br />

SP1<br />

Wednesday, September 4th<br />

19:45<br />

A Pesquisa Mensal de Emprego no contexto de<br />

séries temporais<br />

Rafael Cabral Fernandez<br />

ENCE/IBGE<br />

João Victor Aguiar de Oliveira Messa<br />

A Pesquisa Mensal de Emprego (PME) foi, para todos os efeitos, uma das principais abordagens<br />

de campo no contexo de delineamento da força de trabalho nacional. Desenvolvida pelo Instituto<br />

Brasileiro de Geografia e Estatística (IBGE) de 1980 até 2016 e com periodicidade mensal, a<br />

pesquisa detêm abrangência para as principais regiões metropolitanas do país. A literatura da<br />

temática comumente traça recortes regionais, analisando a PME dado uma região metropolitana<br />

de interesse. Por tratar-se de um quadro de desemprego, é esperado que apresente características<br />

de fenômenos sazonais; propõe-se então um modelo seasonal autoregressive integrated moving<br />

average (SARIMA) com a amostra completa, isto é, todas as regiões metropotolitanas abrangidas<br />

no escopo da pesquisa, com objetivo de predizer a conjuntura de desemprego a nível nacional.<br />

Keywords: Previsão; Desemprego; Sazonalidade<br />

53


Poster Communications<br />

SP1<br />

Wednesday, September 4th<br />

19:45<br />

A crise hídrica e o desempenho dos<br />

reservatórios que compõem o Sistema<br />

Cantareira<br />

Flávia Cristina Martins Queiroz Mariano<br />

Alan Lima dos Reis<br />

UNIFESP<br />

A acelerada expansão urbana advinda da migração populacional rural e de outras regiões do<br />

Brasil, que outrora, motivada pela intensa oferta de emprego e renda na cidade de São Paulo,<br />

desencadearam ao longo do tempo, várias políticas públicas, sistemas e infraestruturas complexas<br />

para garantir o abastecimento público de água. Na contramão deste princípio, o Estado de<br />

São Paulo mostrou-se vulnerável para ofertar água potável aos seus habitantes, dado que, foi<br />

extremamente castigado pelos eventos climáticos que aconteceram nos anos de 2014 e 2015.<br />

Neste período, devido à baixa precipitação ocorrida, a Região Metropolitana enfrentou a pior crise<br />

hídrica da história e com reflexos ainda perceptíveis. De tal forma, o objetivo deste trabalho<br />

consiste em gerar uma estrutura temporal dos reservatórios que compõem o Sistema Cantareira,<br />

identificando os períodos críticos e simulando cenários com o mesmo comportamento. Para<br />

isto, foram compilados dados históricos dos anos de 2008 até 2018 referentes ao nível, volume,<br />

precipitação acumulada e vazão afluente de cada reservatório, obtidos pelo portal dos sistemas<br />

produtores da Companhia de Saneamento Básico do Estado de São Paulo (SABESP). Além destas<br />

variáveis, também foram considerados os indicadores de evaporação, temperatura e umidade relativa<br />

do ar, retirados do cenário mais pessimista das Projeções de Mudança do Clima para América<br />

do Sul (PROJETA). Todas as análises estatísticas foram desenvolvidas no software R. Logo, a<br />

contribuição deste trabalho está em reunir alguns fatores para ilustrar o desempenho do Sistema<br />

Cantareira durante estes dez anos e portanto, possibilitar o aprendizado das condições reais que<br />

prejudicaram o fornecimento de água mediante uma análise que faz uso exclusivamente de um<br />

banco de dados. Contudo, este estudo não considerou os valores referentes à vazão de produção e<br />

a opinião de especialistas em recursos hídricos.<br />

Keywords: Crise Hídrica; São Paulo; Série Temporal; Sistema Cantareira<br />

54


Poster Communications<br />

SP1<br />

Wednesday, September 4th<br />

19:45<br />

A general method for sequential learning of<br />

states and parameters for state space models.<br />

An application to stochastic volatility models<br />

Ivan Robert Enriquez Guzman<br />

UFES<br />

Sequential Monte Carlo methods or particle filters are extensively applied in the stochastic volatility<br />

models (SV) to describe time varying volatilities and estimate the parameters. Theses methods<br />

have been proposed as alternative methods to improve the efficiency of algorithm, present in the<br />

Kalman filter combined with Markov chain Monte Carlo methods, theses ones become less effective<br />

for the non-Gaussian and or non linear models. Unfortunately, the particle filter methods have<br />

either several problems regarding convergence of parameters, or show high level of inefficiency. In<br />

this article, we developed a new method combining the structure of particle filter (PF) and bare<br />

bornes particle swarm optimization (BBPSO) to overcome the inefficiency and degeneracy problem<br />

of the parameters. The process of smoothing and filtering of the states in the stochastic volatility<br />

models following ideia of PF, but the parameters of the model can be estimated via BBPSO. The<br />

new proposed method (BBPSLO) is applied to stochastic volatility models, which are non-linear<br />

models where the assumption of normality is relaxed. Two case studies are illustrated by using the<br />

IBOVESPA and S&P500 index. The empirical results show that the new methodology exhibited<br />

better predictive performance when compared to particle filters.<br />

Keywords: Particle Filters; Particle Swarm Optimization; Stochastic Volatility Models<br />

55


Poster Communications<br />

SP1<br />

Wednesday, September 4th<br />

19:45<br />

A new autorregressive moving average model<br />

based on the unit Rayleigh distribution for rates<br />

and proportions: a simulation study<br />

Renata Rojas Guerra<br />

UFSM<br />

Fernando A. Peña-Ramírez<br />

The unit Rayleigh (UR) is a one-parameter model that is suitable to accommodate asymmetric<br />

unimodal data. It was pioneered Mazucheli et. al. (2018) as a special case of the unit Weibull<br />

distribution. From the results of Guerra (2019), we can cite two main advantages of this model.<br />

The first one is that it presents the maximum likelihood estimator in closed-form. Secondly, it<br />

has a simple expression for the median. In this work, we consider a median re-parametrization<br />

for the UR distribution and propose an autoregressive moving average structure based on this.<br />

We aim to provide a simple alternative for modeling double bounded variables under the presence<br />

of serial correlation in the conditional median of the UR distribution. Once the parent model is<br />

a one-parameter distribution, the introduced model is more parsimonious than the most popular<br />

autoregressive moving average time series. We discuss a conditional maximum likelihood approach<br />

to estimate the model parameters and present a Monte Carlo simulation study to assess its finite<br />

sample performance.<br />

Keywords: ARMA models; Bounded data; Unit Rayleigh distribution<br />

56


Poster Communications<br />

SP1<br />

Wednesday, September 4th<br />

19:45<br />

Análise Temporal do Efeito das UPPs dos<br />

Crimes Violentos Ocorridos na Região<br />

Metropolitana do Rio de Janeiro<br />

Sandra Canton Cardoso<br />

Julia dos Santos Porphirio<br />

Cassio Freitas Pereira de Almeida<br />

ENCE/IBGE<br />

Neste trabalho é realizado um estudo sobre mortes violentas ocorridas na região metropolitana<br />

do Rio de Janeiro levando em consideração a inserção da política de segurança conhecida como<br />

Unidades de Polícia Pacificadora (UPPs). Apesar de o contexto ser bastante complexo e difícil de<br />

ser mensurado, é importante estudar as taxas de criminalidade nos períodos pré e pós intervenção<br />

das UPPs para verificar se houve redução nas taxas de criminalidade. é entendido como mortes<br />

violentas a soma das ocorrências dos seguintes delitos: homicídio doloso, latrocínio e lesão corporal<br />

seguida de morte. A variável de interesse nesse estudo será chamada de Taxa de Homicídios, que<br />

é criada a partir da divisão da quantidade de mortes violentas pelo total da população da região<br />

metropolitana. O objetivo do trabalho é estimar um modelo multivariado temporal, que descreva<br />

bem os dados no período pré intervenção das UPPs - 2003 até 2008, para essa modelagem foi<br />

utilizado o Modelo de Regressão Linear Dinâmico, que faz uso de variáveis exógenas ao longo do<br />

tempo para explicar o comportamento da variável dependente. As variáveis exógenas utilizadas<br />

provêm da Pesquisa Mensal de Emprego (IBGE) que possui indicadores mensais sobre força de<br />

trabalho da região metropolitana do Rio de Janeiro. A partir da estimação dos modelos, será<br />

realizada uma previsão para o período pós implementação - 2009 a 2016, como se a intervenção<br />

nunca tivesse ocorrido, essa previsão é conhecida como Contrafactual Artificial, ou seja, uma<br />

situação que não aconteceu, mas poderia ter acontecido. O Contrafactual é comparado à série<br />

real através da metodologia ArCo, para averiguarmos se houve algum efeito da intervenção das<br />

UPPs nos crimes da região metropolitana. Como resultados, obtivemos que as séries Taxa de<br />

Desemprego, Taxa de Atividade e a própria Taxa de Homicídios defasadas em alguns lags explicam a<br />

Taxa de Homicídios. Foram obtidos dois modelos que se ajustaram bem aos dados e a metodologia<br />

ArCo mostrou evidências para ambos os modelos estimados que a inserção das UPPs influenciou<br />

na dinâmica criminal da região estudada.<br />

Keywords: Séries Temporais; CRIMES; UPP<br />

57


Poster Communications<br />

SP1<br />

Wednesday, September 4th<br />

19:45<br />

Additive mixed models with time series<br />

structures<br />

Caio Lucidius Naberenzy Azevedo<br />

Unicamp<br />

Valderio Anselmo Reisen Pascal Bondon Higor Cotta<br />

Faradiba Sarquis<br />

Many longitudinal studies are designed to investigate changes over time in a characteristic which is<br />

measured repeatedly for each individual. In this formulation, the probability distribution for the<br />

multiple measurements usually has the same form for each participant, but the parameters of that<br />

distribution vary over individuals. In this context, the linear mixed model has been widely used<br />

in epidemiologic studies quantifying the air pollutant effect on the health of the population with<br />

a special attention to respiratory condition. Since, in general, the individuals are observed over<br />

time, the variable measured repeatedly on a same subject is serially correlated. Therefore, time<br />

correlation is one of the factors to be considered in the model. As in the standard regression<br />

model with time series covariates, neglecting time correlation in the model estimation is likely<br />

to cause bias in the parameter estimates. In this context, this paper investigate the effect of<br />

time correlation in the additive mixed models with a special attention to the interaction between<br />

the covariates variables such as, for example, temperature and pollutants. We suggest to use of<br />

non-(semi-)parametric regression to mitigate this problem.<br />

Keywords: Longitudinal data modeling; Additive mixed-models; Time-series models; Dependency<br />

structure<br />

58


Poster Communications<br />

SP1<br />

Wednesday, September 4th<br />

19:45<br />

An application of prediction of mixed logit<br />

discrete choice model<br />

Awo Sitsofe Tsagbey<br />

IME/USP<br />

Viviana Giampaoli<br />

In our everyday lives, we all face choices such as which brand of product to purchase, which type of<br />

footwear to buy or which restaurant to go. Since this is true for everyone, observing the choices of<br />

an individual or even a population of people can be very insightful - behavioural patterns or better<br />

still a demand for a particular service or product can be discovered. Obtaining data on the choices<br />

made by a population can be simple but the when it comes to analyzing the data, the analyst<br />

must consider a model that accommodates the nature of the process that generates the data.<br />

Discrete Choice Models(DCMs) are a group of models that embraces this (Train, 2009; Hensher<br />

et. al., 2015). The most common types of discrete models include the logit, probit, multinomial<br />

logit, nested logit, mixed logit and most recently the generalized multinomial logit. Discrete choice<br />

models have been mostly used in the area economics, transportation, energy, psychology, etc. But,<br />

DCMs need not be about choices per se. The underlying economic or psychological theories can be<br />

adapted to fit any discrete outcome. For example, it has been recently applied to election outcomes<br />

and model corporate bankruptcies. Prediction is most often one of the objectives of creating<br />

statistical models. As such, prediction in DCMs isn’t uncommon. In fact, in contexts such as<br />

engineering, marketing, and production, discrete choice models are mostly used to forecast demand.<br />

Unfortunately, very few works involve predicting the random effects of a new decision-maker. Thus,<br />

there isn’t much information regarding this in mixed logit discrete choice models. On the other<br />

hand, there are number of proposals in literature on how to estimate/predict the random effects in<br />

mixed linear models. In this work, we briefly review some of these methods and apply the method<br />

proposed by Tamuraet. al. (2013) to mixed logit discrete model using real life data. We found<br />

that the prediction accuracy of this new method was better than the naive method.<br />

Keywords: Discrete choice model; Mixed logit model; Prediction<br />

59


Poster Communications<br />

SP1<br />

Wednesday, September 4th<br />

19:45<br />

An empirical investigation of Coverage and<br />

structural change tests in a Value at Risk<br />

analysis based on quantile regression estimation<br />

Wilton Bernardino<br />

Raydonal Ospina<br />

Yuri Martí Santana Santos<br />

UFPE<br />

This work proposes an evaluation on a subgradient test for structural change and on the usual<br />

coverage tests to evaluate Value at Risk (VaR) estimates obtained by quantile regression. In an<br />

initial analysis, exchange traded funds returns were evaluated during the subprime crisis. Motivated<br />

by the empirical results, simulation studies using heteroscedastic autoregressive processes were<br />

performed under different scenarios with and without structural breaks. The simulation studies<br />

show that the structural change test can detect breaks quite accurately. However, the usual VaR<br />

coverage tests are conservative.<br />

Keywords: Subprime crisis; Quantile Regression; Structure change; Valueat-Risk; Linear autoregressive<br />

conditional heteroskedasticity<br />

60


Poster Communications<br />

SP1<br />

Wednesday, September 4th<br />

19:45<br />

Análise da Taxa de Incidência de Tuberculose<br />

no Brasil utilizando Combinações de Previsão<br />

Matisa Andresa Maas<br />

Cleber Bisognin Giovana de Souza Camila Malu da Rosa<br />

UFSM<br />

A tuberculose (TB) é uma doença infecto-contagiosa, cuja incidência no Brasil em 2017 foi de<br />

33,5 casos por 100 mil habitantes, de acordo com o Boletim Epidemiológico do Ministério da<br />

Saúde do Brasil. Segundo o Relatório Mundial de Tuberculose, da OMS, o Brasil está entre os<br />

30 países que concentram 83% dos casos. Dada a importância da TB, este trabalho tem como<br />

objetivo comparar vários modelos e métodos de previsão e verificar o mais acurado para prever o<br />

número de novos casos. Os dados para análise foram obtidos do DATASUS e do IBGE, para o<br />

período de janeiro/2001 até novembro/2018. As previsões foram calculadas utilizando os modelos<br />

SARIMA(0,1,2)x(2,0,0)12 e Suavização Exponencial, com efeitos sazonais aditivos, além de quatro<br />

métodos de combinações de previsão: média, variância mínima, regressão robusta (quantílica)<br />

e método dos mínimos quadrados (OLS). Para encontrarmos a melhor previsão, analisamos as<br />

medidas de acurácia. A combinação de previsões por regressão robusta apresentou menores valores<br />

das medidas de acurácia. Analisando o resultado da previsão utilizando a técnica de previsão<br />

selecionada podemos perceber que haverá uma tendência de crescimento na taxa de TB no Brasil<br />

no período de dezembro de 2018 a novembro de 2020. Neste sentido, sugere-se aos órgãos<br />

Governamentais, que iniciem campanhas para prevenção da TB dado que seu tratamento é longo<br />

e com alta oneração para o sistema de saúde brasileiro.<br />

Keywords: Tuberculose; Combinação de Previsão; SARIMA; Suavização Exponencial<br />

61


Poster Communications<br />

SP1<br />

Wednesday, September 4th<br />

19:45<br />

Análise da Temperatura Mensal Média<br />

Compensada de Passo Fundo - RS utilizando<br />

combinação de previsões<br />

Aldiara Fernanda Pavão Garcia<br />

Cleber Bisognin<br />

UFSM<br />

A temperatura mensal média compensada, juntamente com a temperatura máxima e mínima, são<br />

elementos meteorológicos muito importantes para os climatologistas. O município de Passo Fundo,<br />

localizado no interior do estado do Rio Grande Sul, apresenta uma temperatura média compensada<br />

anual de 18 ◦ C, com máxima em torno de 28 ◦ C e mínima em torno de 8 ◦ C. O presente trabalho<br />

tem por objetivo comparar alguns modelos e métodos de previsão, buscando encontrar o mais<br />

acurado para prever tal série temporal, no período de 01/2002 a 01/2019. Foram ajustados os<br />

modelos Holt-Winters e SARIMA(p,d,q)×(P,D,Q)s, para realizar as predições e previsões, além<br />

de quatro métodos de combinações: variância mínima, média aritmética, regressões por mínimos<br />

quadrados e robusta (quantílica), para as quais foram calculadas as suas respectivas medidas de<br />

acurácia. As medidas de acurácia analisadas foram: RSME, MPE, MAPE e coeficiente U de Theil.<br />

A combinação de previsões por regressão por mínimos quadrados (OLS) obteve menores medidas<br />

de acurácia (RSME, MPE, MAPE) e para tal foram calculadas as previsões 12 passos à frente, ou<br />

seja, para o período de 02/2019 a 01/2020.<br />

Keywords: Temperatura Média Compensada; Predição; Previsão; Séries Temporais<br />

62


Poster Communications<br />

SP1<br />

Wednesday, September 4th<br />

19:45<br />

Análise de tendências em séries<br />

espaço-temporais para avaliação do impacto da<br />

supressão da vegetação no microclima urbano<br />

Vinicius Soares Martins Alves<br />

IME/USP<br />

Chang Chiann<br />

Luciana Ferreira Schwandner<br />

Denise Helena Silva Duarte<br />

Michel Soares<br />

A evolução na tecnologia dos satélites nas últimas décadas resultou numa profusão de imagens<br />

do planeta Terra que são de grande interesse da comunidade científica, em particular daqueles<br />

que estudam as transformações da cobertura vegetal da superfície terrestre e seus impactos<br />

climáticos. O objetivo deste trabalho é estabelecer a relação entre a remoção de áreas verdes na<br />

Região Metropolitana de São Paulo e o aumento da temperatura de superfície nessas zonas. O<br />

Módulo MODIS do satélite Aqua da NASA fornece coleçõ‘es de imagens do período entre 2003<br />

e 2017 com informações pixel a pixel acerca da temperatura de superfície (do dia e da noite) e<br />

da vegetação (pelos índices EVI e NDVI). A exploração desses dados envolve a escolha de um<br />

corte em função do erro experimental estimado pelo módulo, a equiparação das resoluções espaçotemporais<br />

entre as diferentes coleções (1 Km2 e 8 dias para temperatura de superfície, 250m2<br />

e 16 dias para vegetação) e a mudança de coordenadas da projeção senoidal para uma projeção<br />

mais adequada para a visualização dos dados. A análise de tendências mostrou que áreas onde<br />

ocorreram remoção de vegetação, como a recém industrializada região de Cajamar e o trajeto do<br />

Rodoanel, apresentaram aumento de temperatura, em particular onde ocorreu maior remoção de<br />

mata original no entorno.<br />

Clima urbano; Dados georreferenciados; Sensoriamento remoto; Séries espaço-<br />

Keywords:<br />

temporais<br />

63


Poster Communications<br />

SP1<br />

Wednesday, September 4th<br />

19:45<br />

Análise do ciclo anual de queimadas em Goiás<br />

Paulo Henrique Brasil Ribeiro<br />

UFG<br />

Amanda Buosi Gazon Milan<br />

Eder Angelo Milani<br />

Neste estudo utilizou-se uma abordagem de inferência clássica para modelos de séries temporais<br />

da família GARMA, aplicado em dados contagem, do número mensal de queimadas no estado de<br />

Goiás.<br />

Keywords: Queimadas em Goiás; Distribuição binomial negativa; Modelo GARMA<br />

64


Poster Communications<br />

SP1<br />

Wednesday, September 4th<br />

19:45<br />

Análise do número de suicídios de países<br />

desenvolvidos e subdesenvolvidos utilizando<br />

ondaletas<br />

Kelly Pereira de Lima<br />

UFLA<br />

Leila Maria Ferreira<br />

Augusto Ramalho de Morais<br />

Paula Ribeiro Santos<br />

Conforme Venco (2014), o suicídio é uma palavra de origem latina, cujo significado está relacionado<br />

à autoeliminação, à autodestruição e ao autoassassinato. Atualmente, o suicídio está relacionado<br />

aos transtornos mentais como angústias, depressão, alterações de comportamento, bipolaridade,<br />

bullying, alcoolismo e drogas, e entre outros fatores. Nesse contexto, valorizou-se a política de<br />

prevenção pontuada pela Organização de Saúde (OMS) que atualmente reconhece o suicídio como<br />

um problema de saúde pública, pois é pautado como uma patologia. De acordo com a OMS<br />

(Organização Mundial de Saúde), os índices de suicídios são maiores nos países considerados os<br />

“mais felizes” como Holanda e Estados Unidos. Desta maneira, objetivou-se verificar se existe relação<br />

de similaridade entre número de suicídio de países desenvolvidos e subdesenvolvidos utilizados<br />

ondaletas. Os dados foram obtidos a partir do relatório da Organização Mundial de Saúde (WHO),<br />

no período de 1986 a 2015 correspondente a informação anual. Para análise foi empregada a técnica<br />

de ondaletas usando a transformada não-decimada, a função ondaleta aplicada foi a Daubechies<br />

com cinco níveis de decomposição. Com relação, ao agrupamento utilizou-se a energia (variância)<br />

para analisar os clusters e para a visualização do processo de clusterização usou-se o dendograma,<br />

no qual empregou-se a distância de Mahalanobis. A partir da análise de cluster verificou-se a<br />

formação de quatros grupos. No qual, Japão e Estados Unidos e Brasil localizam-se em grupos<br />

distintos e isolados. E os demais países (Austria, Bélgica, Chile, Israel, México e Países Baixos)<br />

em um único grupo.<br />

Keywords: Autoeliminação; Cluster; Transformada não-decimada<br />

65


Poster Communications<br />

SP1<br />

Wednesday, September 4th<br />

19:45<br />

Modelagem de séries temporais de coordenadas<br />

GPS com identificação de efeitos cíclicos em<br />

multiescala a partir da análise wavelet contínua<br />

Eniuce Menezes de Souza<br />

UEM<br />

Gabriela de Oliveira Nascimento Brassarote<br />

João Francisco Galera Monico<br />

José Raimundo de Souza Passos<br />

Luiz Gonzaga Jr<br />

Mauricio Roberto Veronez<br />

A proposta deste trabalho é analisar as séries temporais não estacionárias de coordenada vertical<br />

de estações GPS no Brasil, por meio da Transformada Wavelet Contínua, com o objetivo de<br />

identificar a frequência do sinal periódico contido na série, caracterizar os efeitos que afetam<br />

a coordenada vertical da estação e, integrado a modelos harmônicos, estimar um modelo mais<br />

representativo para cada série. Como resultado, as frequências identificadas na análise wavelet das<br />

séries mostram estar relacionadas a efeitos que afetam a posição da estação GPS, tais como efeitos<br />

de Chandler e draconiano que ocorrem a cada 433 e 351,6 dias, respectivamente. A consideração<br />

dessas frequências na modelagem da série de coordenadas contribuiu para uma representação mais<br />

realística da variabilidade da coordenada da estação.<br />

Keywords: Séries temporais de coordenadas GPS; Efeitos periódicos; Análise wavelet; Transformada<br />

wavelet contínua<br />

66


Poster Communications<br />

SP1<br />

Wednesday, September 4th<br />

19:45<br />

Avaliação da Medida de Núcleo de Inflação<br />

baseada no Método Wavelet para o Brasil<br />

Anderson Antonio Denardin<br />

Alice Kozakevicius<br />

Alex A. Schmidt<br />

UFSM<br />

This article aims to use the wavelet method for the estimation of a core inflation measure for<br />

Brazil. Considering that monetary policy operates under the regime of inflation targeting, the<br />

identification of an indicator that can separate the signal from noise, ie, identify which part of<br />

the inflation is persistent, and what is merely transient is essential to establish monetary policy<br />

rules and the success of controlling inflation. In practice, central banks perform this task using<br />

so-called “core inflation measures”. An appropriate measure of core inflation tends to be compatible<br />

with the two basic functions, namely, it is a good representation for the inflation trend, and a<br />

good predictor for future inflation. Taking this into account, the article proposes to build an<br />

alternative measure of core inflation, the so-called “Wavelet-based core Inflation Measures” (WIM)<br />

and “Multiple Resolution Analysis” (ARM), considering the period for analysis 1996.01 - 2014.05.<br />

Comparisons with the official core inflation used by the central bank and measures based on<br />

regression functions seeking to test their effectiveness to follow the trend of inflation and its ability<br />

to predict future inflation. The results suggest that the measures based on wavelets to Brazil<br />

show a better performance than the traditional approach of core inflation, since they have proven<br />

superior in terms of long-term performance and can help improve short-term projections, indicating<br />

the wavelet method is a promising avenue for future core inflation research and a more efficient<br />

mechanism to guide monetary policy.<br />

Keywords: Wavelets; Núcleo de inflação; Tendência de Inflação; Previsão de Inflação<br />

67


Poster Communications<br />

SP1<br />

Wednesday, September 4th<br />

19:45<br />

Bias corrected minimum distance estimator for<br />

short and long memory processes<br />

Gustavo de Carvalho Lana<br />

Glaura da Concei¸cão Franco<br />

Sokol Ndreca<br />

UFJF<br />

This work proposes a new minimum distance estimator (MDE) for the parameters of short and<br />

long memory models. This bias corrected minimum distance estimator (BCMDE) considers a<br />

correction in the usual MDE to account for the bias of the sample autocorrelation function when<br />

the mean is unknown. We prove the weak consistency of the BCMDE for the general fractional<br />

autoregressive moving average (ARFIMA(p, d, q)) model and derive its asymptotic distribution for<br />

some particular cases. Simulation studies show that the BCMDE presents a good performance<br />

compared to other procedures frequently used in the literature, such as the maximum likelihood<br />

estimator, the Whittle estimator and the MDE. The results also show that the BCMDE presents,<br />

in general, the smallest mean squared error and is less biased than the MDE when the mean is a<br />

non-trivial function of time.<br />

Keywords: Sample autocorrelation and autocovariance; ARMA; ARFIMA; Whittle; MLE<br />

68


Poster Communications<br />

SP1<br />

Wednesday, September 4th<br />

19:45<br />

Bolsonaro and Taurus Armas SA: an<br />

intervention analysis in the period from 2015 to<br />

2019<br />

Thelma Safadi<br />

UFLA<br />

Thaís Alves dos Santos<br />

Gabriel Rodrigo Gomes Pessanha<br />

Nikolaos Kourentzes<br />

With the signing of Jair Bolsonaro’s candidacy for presidency in mid-2018 and the intensification of the<br />

dissemination of his electoral flags, among them the improvement of public security and the easing of the<br />

rules for granting arms possession, there was a significant increase in the shares of Taurus Armas S.A., one<br />

of the three largest manufacturers of light weapons in the world. Therefore, the main objective of this<br />

study is to measure and analyze the impacts of the 2018 elections on the Taurus Armas S.A. stock return<br />

series from January 2015 to March 2019. After collecting the daily series of Taurus stock prices obtained by<br />

through the Economatica software, the ARIMA class models were used as methodology, specifically the<br />

intervention models, to verify if the performance during the campaign and, later election of the candidate<br />

Jair Bolsonaro represented an intervention able to modify the behavior of the series time of return of Taurus.<br />

Based on the surveys of voting intentions published by IBOPE (Brazilian Institute of Opinion and Statistics),<br />

the interventions to be studied were constructed. After adjustment of the models, it was noticed that all the<br />

adjusted models presented statistical significance and, from the results, it was possible to observe that the<br />

leadership of the right candidate, Jair Bolsonaro, the presidency of the republic in the surveys of intention to<br />

vote (abrupt and temporary intervention) and, later, his election in October 2018 (abrupt and permanent<br />

intervention) were configured as an intervention in the return series of Taurus Armas S.A.. Thus, it was<br />

found that the performance of the then candidate during the campaign and in the elections were able to<br />

change and/or influence changes in the behavior of the return series of the company studied. However,<br />

it is interesting to note that intervention during the electoral campaign showed a positive relationship<br />

with the series of returns and the intervention represented by the victory in the elections represented a<br />

negative intervention in the series of returns, a fact that can be explained by the speculative character of<br />

the stock market. The results were expected, as one of the promises of candidate Jair Bolsonaro was to<br />

liberalize the possession and possession of firearms. In addition, the results are consistent with the theory of<br />

market efficiency by revealing the stock market reaction by accessing new information and the potential<br />

new scenario. The results contribute to firm theory addressing the clash between the political environment<br />

and the investment market, more specifically its interdependence relationship. The study is current and<br />

innovative because it reveals the interventionist nature of the performance of a presidential candidate in the<br />

stock return series of the company studied.<br />

Keywords: Bolsonaro; Elections; Intervention analysis; Taurus<br />

69


Poster Communications<br />

SP1<br />

Wednesday, September 4th<br />

19:45<br />

Classificação em Intensidades SAR<br />

Multidimensionais de Terrenos via Processos<br />

VARMA<br />

Jodavid de Araújo Ferreira<br />

UFPB<br />

Abraãoo D. C. do Nascimento<br />

Pedro M. A. Junior<br />

Os sistemas PolSAR têm sido indicados como ferramentas eficientes na resolução de problemas de<br />

sensoriamento remoto, porém essas imagens PolSAR são afetadas por uma interferência particular<br />

multidimensional, chamada ruído speckle, que deve ser levando em conta no processamento. Uma<br />

imagem PolSAR multilook pode ser entendida como um mapa em que cada entrada está associada<br />

a uma matriz hermitiana definida positiva cuja diagonal principal é o vetor de intensidades ou<br />

intensidade multimensional. Neste trabalho, assumimos que dados de intensidades multidimensionais<br />

de janelas retangulares de imagens PolSAR podem ser entendidos como realizações de um processo<br />

VARMA (Vector Autoregressive Moving Average).<br />

Keywords: Imagens PolSAR; VARMA; Teoria da Informação<br />

70


Poster Communications<br />

SP1<br />

Wednesday, September 4th<br />

19:45<br />

Comparação de Métodos para tratamento de<br />

dados Ausentes em Séries Temporais<br />

Univariadas.<br />

Isabela de Lima Severino<br />

Glaura da Concei¸cão Franco<br />

UFMG<br />

Tratando-se de ausência de dados, uma grande parte dos livros didáticos na área de estatística<br />

quase não trata do tema, e quando o trata pode-se observar uma tendência simplista, de excluir<br />

o caso ausente e seguir as análises. No entanto, essa estratégia em estudos de séries temporais<br />

pode gerar uma falha na estrutura da série e levar a análises e predições equivocadas. Com isso,<br />

esse trabalho tem o objetivo de tentar estabelecer melhores métodos de tratamento de dados<br />

ausentes, que nesse contexto são as imputações, em séries temporais univariadas. Para comparar<br />

os métodos utilizaram-se séries temporais simuladas, de tamanhos e estruturas de autocorrelação<br />

diferentes, além de séries reais. As séries foram submetidas a um processo de retirada de dados, de<br />

forma aleatória e sequencial, nas proporções de 10% e 30% dos dados. Em seguida, aplicaram-se 7<br />

métodos de imputação de dados, que consistem em uma substituição do caso ausente por um valor<br />

razoável, nessas séries. Os métodos utilizados foram: Suavização de Kalman (usando modelos de<br />

espaço de estados, modelos ARIMA com ajuste automático e modelos ARIMA com definição da<br />

ordem do modelo), imputação pela Média, pela Média Móvel Ponderada, pela última Observação<br />

e por Algoritmo EM. Ao final, avaliou-se quais os métodos resultaram em melhores valores de<br />

imputação, utilizando métricas de qualidade de ajustes das séries após a imputação dos dados.<br />

Concluiu-se, de uma forma geral, que os métodos que respeitam as estruturas de autocorrelação<br />

das séries para realizar as imputações, ou seja, os métodos que utilizam a Suavização de Kalman,<br />

são melhores que os métodos mais simples que desprezam esse fato. Como esperado, quando a<br />

proporção de ausência de dados é menor as imputações são mais robustas.<br />

Keywords: Imputação de dados; Séries Temporais; Comparação de Métodos<br />

71


Poster Communications<br />

SP1<br />

Wednesday, September 4th<br />

19:45<br />

Correlated INARMA(1,1) Process<br />

Nikolai Kolev<br />

IME/USP<br />

Al-Osh and Alzaid (1987) defined the INAR(1) model by X t = α◦X t−1 +ɛ t , with α◦X t−1 = ∑ X t−1<br />

i=1 Y i,<br />

for t = 1, 2, . . . , where {Y i } is a sequence of i.i.d. Bernoulli random variables with parameter<br />

α ∈ (0, 1), under assumption that Y t−1 ’s are independent Poisson distributed with parameter λ, being<br />

independent of innovation term ɛ t which is also Poisson distributed, but with parameter λ(1 − α).<br />

Using integer-valued operation ◦ as a substitute for the ordinary multiplication of ARMA recursion,<br />

Dion et al. (1995) define INARMA(p,q) models by relation X t = ∑ p<br />

i=1 α i ◦X t−i + ∑ q<br />

i=1 β i ◦ɛ t−i +ɛ t ,<br />

where the sequence of innovations {ɛ t , ɛ t−1 , . . . , ɛ t−q } are i.i.d. random variables. Kolev and Paiva<br />

(2000) introduced the correlated INAR(1) process replacing the binomial thinning operator α ◦ X t−1<br />

by the correlated binomial thinning α ◦ ρ X t−1 , assuming that random variables Y i are identically<br />

Bernoulli distributed with E(Y i ) < α, but being equicorrelated, i.e., Corr(Y i , Y j ) = ρ > 0 for i ≠ j,<br />

i, j = 1, 2, . . .. In this note, we will explore the correlated binomial thinning operator ◦ ρ in the<br />

context of INARMA(1,1) model specified by X T = α 1 ◦ ρ1 X t−1 + β 1 ◦ ρ2 ɛ t−1 + ɛ t , t = 1, 2, . . .,<br />

where α 1 , β 1 ∈ (0, 1) with ρ 1 and ρ 2 being equicorrelation parameters. Statistical inference and<br />

specific results when innovation sequence ɛ t is Poisson distributed illustrate our findings. We apply<br />

the correlated INARMA(1,1) model to study real mortality data observed in the state of São Paulo,<br />

Brazil.<br />

Keywords: Correlated; INARMA(1,1); Binomial thinning<br />

72


Poster Communications<br />

SP1<br />

Wednesday, September 4th<br />

19:45<br />

Critical Analysis of the Econometric Models<br />

used in the Regulatory Framework of<br />

Non-technical Losses in Brazil Electric Sector<br />

Murilo de Miranda<br />

Daniel Viana Arthur Tavares Ana Carolina Chaves<br />

Marcelo Maestrini Luiz Ozório Guilherme Dantas<br />

Priscila Mendes<br />

Jairo Eduardo<br />

GESEL<br />

The non-technical losses in Electric Sector are all the wastes of energy that occurs in the electricity<br />

distribution grid because of commercials and manageable aspects. For example, this losses are<br />

higher associated with electric theft. To incentive the concessionaires to have a good performance<br />

in combat these losses, there is a regulatory treatment that imposes some targets for this issue.<br />

In Brazil, the regulatory framework adopt a benchmark model to determine the target. In this<br />

model, the regulator uses a regulator econometric approach with socioeconomic data to subsidize<br />

the comparison between companies based on the complexity of each concession area. This article<br />

execute a critical econometric analysis of this methodology. For this, the article discuss the<br />

effectiveness of the model based on econometric test of estimations and residuals. Moreover, there<br />

is a specific analysis for the specification of variables and for the autocorrelations in the model. In<br />

the end, the paper demonstrate the weaknesses of the model to represent the reality of fighting<br />

against losses in the sector. As a result, there are contests about the choice of this type of model<br />

and the biases of omitted variables.<br />

Keywords: Econometric Analysis; Regulation of Electricity Non-technical Losses; Socioeconomic<br />

Model; Panel Data with Random Effects<br />

73


Poster Communications<br />

SP1<br />

Wednesday, September 4th<br />

19:45<br />

Desenvolvimento de um modelo de previsão em<br />

tempo real para demanda e reservação com<br />

dados Big Data na indústria da água<br />

Leonardo Fonseca Larrubia<br />

IME/USP<br />

Chang Chiann<br />

Olga Satomi Yoshida<br />

O objetivo deste projeto é explorar uma solução Big Data da indústria da água para a automação<br />

sem supervisão da programação diária dos controles operacionais da adução da água usando alguns<br />

modelos paramétricos de séries temporais, tais como modelo harmônico com periodicidade de 12<br />

e 24 horas + modelo autorregressivo; modelo SARIMA (autorregressivos integrados de medias<br />

moveis sazonais); modelo ARFIMA (autorregressivo fracionário integrado de médias moveis) e<br />

modelo de regressão usando ondaletas (wavelets).<br />

Keywords: Previsão; Dados Omissos; Big Data; Iot; Indústria da água<br />

74


Poster Communications<br />

SP1<br />

Wednesday, September 4th<br />

19:45<br />

Detecção de pontos de mudança na série<br />

temporal de citações do Bolsonaro na mídia<br />

impressa brasileira durante as eleições 2018<br />

Marina Alves Amorim<br />

UFMG<br />

Florencia Lorenzo<br />

Pedro Paschoalin de Amorim<br />

Bárbara Salatiel Borges<br />

Lilian Bernardes<br />

Este artigo apresenta a análise do número de menções aos candidatos às eleições que ganharam<br />

espaço e visibilidade na mídia impressa brasileira em 2018, ano em que ocorreram as eleições no<br />

país. Para a pesquisa, foram coletadas todas as entradas de primeira página, durante o período<br />

do dia 1 ◦ de junho de 2018 a 31 de outubro de 2018. Os veículos que compõem a análise são os<br />

principais de abrangência nacional de grande circulação: O Globo, Correio Braziliense, Estadão<br />

e Folha de São Paulo; e os de abrangência do estado de Minas Gerais: O Tempo, Hoje em Dia,<br />

Estado de Minas , Super Notícia e Metro. Partiremos do pressuposto de que as capas de jornais<br />

têm um poder comunicativo muito maior do que o conteúdo completo das notícias, presentes<br />

na parte interna dos jornais. Além disso, a manchete, as chamadas e as fotos da capa são os<br />

elementos mais vistos, seja pelos assinantes e seus familiares, pelas pessoas que compram os<br />

jornais nas bancas ou mesmo pelas pessoas que circulam todos os dias em frente às bancas de<br />

revistas, onde as capas dos jornais diários são expostas para a apreciação pública. A estratégia<br />

implementada consiste no uso de séries temporais para representar as frequências dos personagens<br />

políticos citados pela mídia. Esse método permite a visualização do crescimento e/ou queda das<br />

menções ao candidato. Em seguida, aplicamos o método de pontos de mudança. A detecção de<br />

pontos de mudança tenta identificar os momentos em que a distribuição de probabilidade de uma<br />

série temporal muda. Com isso, foi possível destacar alterações significativas e vincular aos fatos<br />

ocorridos no período eleitoral, compreendendo, assim como esses episódios afetaram a visibilidade<br />

política do candidato. Conseguimos identificar estes pontos analisando as mudanças na média e<br />

na variância de uma série temporal através do método Pruned Exact Linear Time (PELT). Foi<br />

possível evidenciar várias fases da trajetória eleitoral. Reunimos alguns acontecimentos que são<br />

confirmados pela série temporal, um deles indica que Bolsonaro passou a ser o personagem político<br />

com maior visibilidade na mídia impressa, tanto nacional quanto mineira, após o atentado ocorrido<br />

em Juiz de Fora, dia 6 de setembro.<br />

Keywords: Change Points; Séries Temporais; Eleições; Pontos de mudança; Mídia Impressa<br />

75


Poster Communications<br />

SP1<br />

Wednesday, September 4th<br />

19:45<br />

Duration-dependent Markov-switching in<br />

Bitcoin volatility with Value-at-Risk application<br />

Fernando Henrique de Paula e Silva Mendes<br />

UFRGS<br />

João Frois Caldeira<br />

This paper extends research concerned with the evaluation of alternative volatility modeling and<br />

forecasting methods for Bitcoin log-returns by broadening the class of single-regime GARCH models<br />

to include duration-dependent Markov-switching models (DDMS). In addition to the in-sample<br />

statistical evaluation, we compare the DDMS model to single-regime GARCH-types predicting<br />

one-day ahead Value-at-Risk (VaR). Despite using a two-state model, the DDMS specification used<br />

in this empirical application acts like a large N-state model capturing a broad range of volatility<br />

levels, since duration also affects the conditional variance. To assess the economic significance<br />

of the Bitcoin volatility forecast to investors, we investigate the advantages of regime-switching<br />

models in the Bitcoin returns for the accurateness of the Value-at-Risk models. For one-day holding<br />

period, the best results were obtained for DDMS model at the 1% risk level.<br />

Keywords: Bitcoin; Duration Dependence; Markov-switching; Value-at-Risk<br />

76


Poster Communications<br />

SP1<br />

Wednesday, September 4th<br />

19:45<br />

Estudos de Séries Temporais Binárias Aplicadas<br />

ao Nível de Precipitação do Município Rio<br />

Verde<br />

Fernanda Kelly Romeiro Silva<br />

UFG<br />

Eder Angelo Milani<br />

A observação ou não de um determinado evento de interesse ao longo do tempo constitui uma série<br />

temporal binária, e esse tipo de dados são observados em diferentes áreas, tais como: economia,<br />

meteorologia e sensoriamento remoto. Existem vários modelos de séries temporais para analisar<br />

séries com essa peculiaridade, dentre eles os modelos GARMA, BARMA e Dynamic, que adotam,<br />

comumentemente, a função logito ou probito como função de ligação. Entretanto, pouco se estuda<br />

qual seria a melhor maneira de representar a estrutura autorregressiva do modelo, dado que a série<br />

temporal é geralmente representada por valores 0 ou 1, e os modelos consagrados pela literatura<br />

não necessariamente acompanham tal interpretação. Este estudo teve por objetivo explorar<br />

o modelo de séries temporais Bernoulli-ARMA empregando as técnicas referentes a Inferência<br />

Bayesiana. Sendo assim, foi analisada a estrutura autorregressiva do modelo Bernoulli-ARMA<br />

proposto por Milani et al. (2019), e notou-se com os estudos desenvolvidos ao longo deste, de<br />

uma maneira geral, que o modelo Bernoulli-ARMA produz resultados satisfatórios em estudos de<br />

séries temporais binárias por descrever bem o comportamento de séries binárias com a utilização<br />

das técnicas da Inferência Bayesiana. Portanto, o modelo aqui estudado apresentou-se como uma<br />

excelente alternativa para estimação diante do modelo Generalizado Autorregressivo de Médias<br />

Móveis(GARMA). Nas aplicações do modelo Bernoulli-ARMA, verifica-se que este é conveniente<br />

quanto as aplicações em dados simulados por obter resultados precisos e constata-se também que o<br />

modelo Bernoulli-ARMA(2,0), de acordo com os critérios de informação adotados, melhor se ajusta<br />

aos dados reais de ocorrência ou não de precipitação do município Rio Verde. O modelo escolhido<br />

conduz a interpretação de que a probabilidade de chuva em uma determinada data depende de<br />

dois dias anteriores a ela, e esta informação, a priori, pode trazer ao município Rio Verde e outros<br />

municípios grandes resultados referentes ao agronegócio e ao meio ambiente.<br />

Keywords: Modelo GARMA; Modelo Bernoulli-ARMA; Séries Temporais Binárias; Inferência<br />

Bayesiana<br />

77


Poster Communications<br />

SP1<br />

Wednesday, September 4th<br />

19:45<br />

Ensemble Kalman Filter: An analysis of the<br />

joint estimation of states and parameters<br />

Rafael Oliveira Silva<br />

Márcia D’Elia Branco<br />

USP<br />

The Ensemble Kalman Filter (EnKF) is a sequential Monte Carlo algorithm for inference in linear<br />

and nonlinear state-space models. This filter combined with some other methods propagates the<br />

joint posterior distribution of states and parameters over time. There are fewer papers that consider<br />

the problem of simultaneous state-parameter estimation and existing methods have limitations.<br />

The purpose of this work is to analyze the efficiency of these methods by means of simulation<br />

studies in linear and nonlinear state-space models. The nonlinear estimation problem addressed<br />

here refers to the logistic surplus-production model, for which the EnKF can be considered as a<br />

possible alternative to MCMC algorithms. The simulation results reveal that the accuracy of the<br />

estimates increases when the time series grows, but some parameters present problems in the<br />

estimation.<br />

Keywords: Ensemble Kalman Filter; Joint estimation; Logistic surplus-production model<br />

78


Poster Communications<br />

SP1<br />

Wednesday, September 4th<br />

19:45<br />

Estimation of ARFIMA models: a minimum<br />

distance approach<br />

Mauricio Enrique Zevallos Herencia<br />

IMECC/Unicamp<br />

The paper proposes a new minimum distance estimator (MDE) for Gaussian ARFIMA processes<br />

with long-memory parameter in the interval (-1/2,1/2). The MDE method is based on the<br />

minimization of the distance between sample and population autocovariance differences. This<br />

permits, in addition, the simultaneous estimation of the variance of the errors. It is shown that<br />

the new estimator satisfies a central limit theorem and Monte Carlo experiments indicate that the<br />

proposed estimator performs very well. The proposed method is illustrated with the estimation of<br />

real-life time series.<br />

Keywords: ARFIMA; Autocovariances; MDE<br />

79


Poster Communications<br />

SP1<br />

Wednesday, September 4th<br />

19:45<br />

Estimation of the Hurst Parameter for the<br />

Quadratic FIMA Processes<br />

Guilherme de Lima Feltes<br />

Jonas F. de Medeiros<br />

Sílvia R.C. Lopes<br />

UFRGS<br />

In this work, we present an estimator for the parameter H in a Quadratic FIMA Process, driven by<br />

fractional Brownian motion. We present the proof that this estimator is asymptotically unbiased<br />

and some simulation results.<br />

Keywords: Quadratic OU Type processes; Fractionally Integrated Moving Average processes;<br />

Estimation of the Hurst Index<br />

80


Poster Communications<br />

SP1<br />

Wednesday, September 4th<br />

19:45<br />

Exports, Productivity and Factor Intensity:<br />

Evidence for Brazilian Firms<br />

Dieison Lenon Casagrande<br />

PIMES/UFPE<br />

Álvaro Barrantes Hidalgo<br />

Paulo Ricardo Feistel<br />

Based on the theory of heterogeneous firms, participation in the international market leads to<br />

changes in performance and efficiency gains at the firm level. This article uses microdata at the level<br />

of firms of the Brazilian manufacturing industry (2007-2014) to investigate the impacts of exporting<br />

on the productivity trajectory and intensity of factors. The empirical strategy, via Differences<br />

in Differences, explores the fact that firms enter at different moments into the external market,<br />

generating a variation in the period and in the intensity of the permanence. The results evidence<br />

learning effects and the use of comparative advantages so that firms that start exporting have an<br />

immediate productivity growth of around 5% and an instantaneous decrease in capital intensity<br />

(2.3%) in relation to the pre-entry period compared to non-exporting firms in the comparison<br />

group. The permanence on the activity intensifies the effects, so that, after four periods, the<br />

growth (reduction) in productivity (intensity of capital) is, approximately, 12% (15%). Among the<br />

sources of heterogeneities investigated, the magnitude of effects varies in dimensions such as size,<br />

technological intensity and pre-entry levels of productivity and capital intensity.<br />

Keywords: Productivity; Factor Intensity; Start Export; Manufacturing Industry<br />

81


Poster Communications<br />

SP1<br />

Wednesday, September 4th<br />

19:45<br />

Extended Nelson and Siegel Yield Curve: A<br />

Modified Version applied to US Term Structure<br />

William Lima Leão<br />

Carlos Antonio Abanto-Valle<br />

UFRJ<br />

The term structure of interest rates refers to the relationship between interest rates in different<br />

maturities. It plays a relevant role in the economic scenario, the shape of the interest rate curve<br />

gives an idea of current economic activity and also assists in predicting possible changes in future<br />

rates. The basic three-factor model presented in Diebold and Li (2006) of the yield curve of<br />

Nelson and Siegel (1987) offers a flexible approach to estimating the different forms that the term<br />

structure of interest rates can assume, however, when working with maturity yields greater than<br />

10 years, long terms, the adjustment begins to lose its accuracy. Svensson’s (1994) approach to<br />

the Nelson and Siegel curve improves the adjustment of long terms by adding an extra curvature<br />

factor, thus creating a way to estimate long-term maturities not only depending on the curve level<br />

but also of a long-term curvature. Several extensions have been introduced for this approach,<br />

but in some cases, they present problems of identifiability of the parameters present in factor<br />

loads. Thus, the objective of this work is to present a new version for the Extended Nelson and<br />

Siegel yield curve, which improves the adjustment by improving the identifiability of exponential<br />

decay parameters of the curves, providing more accurate forecasts for future rates. Inference is<br />

accomplished through the Bayesian paradigm. We have developed an algorithm based on Markov<br />

Chain Monte Carlo Simulations (MCMC) for estimation of parameters and latent variables. An<br />

empirical application with the term structure of the United States government is presented and,<br />

for purposes of comparison, using goodness of fit statistics, we compare the proposed model with<br />

relevant approaches in the literature.<br />

Keywords: Bayesian inference; Term Structure; MCMC; Interest rates<br />

82


Poster Communications<br />

SP1<br />

Wednesday, September 4th<br />

19:45<br />

Fatos inesperados e o mercado de petróleo:<br />

Abordagem de saltos condicionais<br />

Max Cardoso de Resende<br />

Evandro Castro Pedro<br />

UFPel<br />

Esta pesquisa tem por objetivo analisar os movimentos de preços estimulados por fenômenos<br />

inesperados, como explosão de plataforma, crises geopolíticas e financeiras no mercado de petróleo<br />

e compreender a reação e a persistência desses efeitos sobre o preço da commoditie. Foram utilizadas<br />

quatro especificações para a metodologia de saltos condicionais ARJI-GARCH, desenvolvida por<br />

Chan & Maheu (2002). Os dados consistem em 1190 registros diários do preço de fechamento do<br />

petróleo do tipo light (WTI) no período de janeiro de 2010 a setembro de 2014, obtidos junto<br />

à NYMEX. Dentre vários resultados verificou-se que a chegada de novas informações provoca<br />

alterações significativas nos retornos do petróleo contrariando a hipótese de mercados eficientes.<br />

Também verificou-se que as variações no preço do petróleo podem ser especificadas através de<br />

saltos condicionais que são variantes no tempo, porém pouco sensíveis a choques passados e de<br />

persistência de curtíssimo prazo.<br />

Keywords: Petróelo; Volatilidade; Fatos inesperados; Modelos ARJI-GARCH<br />

83


Poster Communications<br />

SP1<br />

Wednesday, September 4th<br />

19:45<br />

Filtragem de Imagens SAR via Processos<br />

ARMA Gama<br />

Pedro Monteiro de Almeida Junior<br />

Abraão David Costa do Nascimento<br />

UFPE<br />

Neste trabalho, apresentam-se evidências, em termos de qualidade de filtragem de imagens SAR<br />

simuladas e reais, de que o uso de processos ARMA Gama para dependência espacial de intensidades<br />

pode apresentar melhoras expressivas relativamente a algumas abordagens clássicas.<br />

Keywords: Distribuição Gama; Filtragem; GARMA; Imagens SAR<br />

84


Poster Communications<br />

SP1<br />

Wednesday, September 4th<br />

19:45<br />

Forecasting Brazilian Industrial Production<br />

Index with level and trend changes after crises<br />

and SARIMA models<br />

Francisco Marcelo Monteiro da Rocha<br />

EPPEN/UNIFESP<br />

Airlane Pereira Alencar<br />

Two models are proposed for the monthly Brazilian industrial production index from 2002 to April<br />

2015. The first model considers transient falls after the crisis in 2008 and another fall from<br />

December 2014 to April 2015, monthly fixed effects, different trends before and after 2008 and an<br />

autoregressive serial correlation for the errors. Another model without structural changes is the<br />

SARIMA model, including only a significant drop after the crisis in 2008. The first model identified<br />

a significant rising trend before the crisis of 2008, no significant growth after the crisis, significant<br />

declines just after the 2008 crisis and significant drop after December 2014. The SARIMA model<br />

do not assume different trends and levels but its forecasts indicates a worse scenario with no<br />

recovery in 2016.<br />

Keywords: Autoregressive regression; Seasonality; Trend changes<br />

85


Poster Communications<br />

SP2<br />

Thursday, September 5th<br />

19:45<br />

Determinantes e Concentração Espacial das<br />

Exportações Paranaenses por Intensidades<br />

Tecnológicas: Análise no Período de 2000 a<br />

2016<br />

Daniel Arruda Coronel<br />

UFSM<br />

Angel Maitê Bobato<br />

Clailton Ataides de Freitas<br />

Elisangela Gelatti<br />

Paulo Ricardo Feistel<br />

O objetivo desta pesquisa foi analisar os determinantes das exportações por níveis de intensidade<br />

tecnológica (alta e baixa tecnologia, e não industriais) do estado do Paraná no período de 2000 a<br />

2016. Aém disso, contruir um índice de concentração normalizado dessas exportações desagregadas<br />

tecnologicamente para os municipios paranaenses para verificar onde ocorre a distribuição destas<br />

exportações no território do Paraná no ano de 2016. Para mensurar os determinantes da exportações<br />

foi utilizado o modelo gravitacional tradicional do comércio atráves da técnica de dados em painel,<br />

já a construção do índice foi feita atráves da análise de componentes principais, e por fim, foi<br />

utilizado a análise exploratória de dados espaciais (AEDE) para a distribuição espacial. Os dados<br />

foram coletados no sítio do Comex Stat, Wordl Bank, do Instituto Paranaense de Desenvolvimento<br />

Econômico e Social (IPARDES), do instituto Brasileiro de Geografia e Estatística (IBGE) e do<br />

site Horlage Parlante. Como principais resultados foi obtido que os determinantes das exportações<br />

alteram-se conforme o tipo de nível tecnologico analisado, além disso, verificou-se a existência de<br />

um aglomerado produtivo de produtos de alta tecnologia na região metropolitana de Curitiba, ou<br />

seja, essa região é onde concentra-se as exportação desse tipo de tecnologia.<br />

Keywords: Comércio Intra-Regional; Exportações; Paraná; Modelo Gravitacional<br />

86


Poster Communications<br />

SP2<br />

Thursday, September 5th<br />

19:45<br />

Functional coefficient regression models for the<br />

problem of Okun’s Law<br />

Michel Helcias Montoril<br />

Sidney M. Caetano<br />

UFJF<br />

In 1962, Arthur Okun posited an empirical relationship between the change in the unemployment<br />

rate and growth rate. He explained the difference in the unemployment rate (Y ) by the growth<br />

rate of the real gross national product (X). Such a relationship became known as Okun’s law.<br />

Using quarter-to-quarter data from 1947 to 1960, Okun fitted a linear regression and concluded<br />

that Ŷ = 0.3 − 0.3X. Over time, Okun’s law has been studied under different models and different<br />

time samples. Among the approaches, it has been considered dynamic models assuming that the<br />

regression coefficient varies over time. In this work, instead of evaluating the regression coefficient<br />

as a function of time, we consider a wavelet-based functional regression model to study the Okun’s<br />

law, where (in our case) the regression coefficient changes according to lagged growth rates of the<br />

GNP. In this case, one can interpret that variations of the GNP in the past will be able to explain<br />

changes in Okun’s law in the present.<br />

Keywords: Functional coefficient regression models; Okun’s law; Wavelets<br />

87


Poster Communications<br />

SP2<br />

Thursday, September 5th<br />

19:45<br />

Graph wavelet analysis of fMRI time series<br />

Rodney Vasconcelos Fonseca<br />

IMECC/Unicamp<br />

Aluísio Pinheiro Clarissa Yasuda Debashis Mondal<br />

Several applications in science and engineering can be represented through graphs that have signals<br />

observed on the nodes. The analysis of this type of data is called graph signal processing and<br />

consists in a growing field of research with potential application to a wide variety of fields. Wavelets<br />

have a large tradition on the signal process literature, notably for its capacity of representing a<br />

signal well on both time and frequency domains and in multiple resolutions of scale. Therefore,<br />

some efforts have been made to adapt concepts in the classical wavelet theory for the graph domain<br />

counterpart, which resulted in different approaches. In this work, we apply a wavelet method<br />

developed for graph time series to analyze the dynamics of measurements taken from the brains of<br />

patients with epilepsy. These results are compared with similar measurements taken from control<br />

individuals and we are able to identify interesting characteristics for the brain regions of epileptic<br />

patients, which illustrates the applicability of graph wavelet methods for dynamic networks.<br />

Keywords: Graph wavelet; Time series; Functional magnetic resonance imaging<br />

88


Poster Communications<br />

SP2<br />

Thursday, September 5th<br />

19:45<br />

Introdução a Análise de Componente de<br />

Volatilidade Principal: Resultados Preliminares<br />

em uma Aplicação em Retornos de Ações da<br />

Bovespa<br />

Manoel Vitor De Souza Veloso<br />

ICSA/Unifal-MG<br />

Gislene Araújo Pereira<br />

Letícia Lima Milani<br />

Diversas séries temporais possuem variância condicional no tempo. Em séries financeiras, essa<br />

variância é chamada de volatilidade ou heterocedasticidade condicional. No mercado de ações,<br />

a variância dos retornos dos preços das ações é, em geral, constante ao longo do tempo, e<br />

a volatilidade dos retornos pode ser bem diferente em diferentes intervalos de tempo. Quase<br />

todos os investimentos reais exigem modelar as volatilidades de vários ativos em conjunto. Assim,<br />

torna-se importante modelar a matriz de variância-covariância condicional, por meio de modelos<br />

multivariados. Hu e Tsay (2014) generalizaram a ideia de análise de componente principal clássica<br />

(PCA) para análise de componente de volatilidade principal (PVCA), em que baseia-se na matriz<br />

de curtose generalizada acumulada e é usada para capturar a heterocedasticidade condicional do<br />

conjunto de dados, identificando fatores de volatilidade comuns. Diante do exposto, o presente<br />

trabalho tem por objetivo usar a técnica de PVCA para agrupar retornos de ações de 5 empresas<br />

da Bovespa, segundo fatores de volatilidade comuns. Foram extraídos os retornos de ações<br />

(média fechamento diário, corrigido pela inflação) de 5 empresas da Bovespa, nos período de<br />

03/01/2011 a 21/06/2017: Petrobras, Bradesco, ItauUnibanco, Ambev e BRF Foods. A PVCA<br />

é aplicada nos resíduos do VAR (ruídos brancos), mas no presente estudo, foram aplicadas nos<br />

retornos das ações que já são ruídos brancos, segundo resultados do teste de Ljung-Box aplicado<br />

nestes. O Teste ARCH Multivariado indicou que existe efeito ARCH nos retornos. Aplicou-se<br />

a PCVA e em seguida foi feito o teste ARCH para cada PVC, indicando que a 5 a PVC não<br />

tem heterocedasticidade condicional, determinando volatilidade comum e, então, observou-se as<br />

cargas do autovetor correspondente discriminando 2 grupos com volatilidades comuns: Petrobras,<br />

Bradesco e BRF (cargas positivas) e ItauUnibanco e Ambev (cargas negativas).<br />

Keywords: PVCA; Volatilidade; ARCH; Retornos<br />

89


Poster Communications<br />

SP2<br />

Thursday, September 5th<br />

19:45<br />

Impactos assimétricos da incerteza na produção<br />

industrial brasileira<br />

Ariana Stephanie Zerbinatti<br />

UFABC<br />

Bruno de Paula Rocha<br />

Ana Luísa Gouvêa Abras<br />

Diante dos impactos negativos da incerteza na atividade econômica descritos pela literatura e<br />

dos poucos estudos sobre o tema no Brasil, este artigo tem como objetivo analisar a relação<br />

entre incerteza e produção industrial. Buscou-se testar a presença de não-linearidade dos efeitos<br />

da primeira variável sobre a segunda, com a estimação de modelos Logistic Smooth Transition<br />

Autoregressive (LSTAR). Esses modelos incorporam mudança de regime com transição suave entre<br />

um estado e outro, que, neste estudo, se referem a períodos de alta e baixa incerteza. Foram<br />

construídas duas variáveis proxies de incerteza: (i) um índice industrial agregado, que captura a<br />

incerteza dentre os segmentos da indústria de transformação e (ii) uma medida agregada, que<br />

consiste na média ponderada de 17 indicadores subsetoriais. Os resultados apontam para assimetria<br />

da incerteza, tanto macroeconômica como industrial, com efeitos mais intensos para patamares<br />

mais elevados.<br />

Keywords: Incerteza; Atividade econômica; Produção industrial; Modelos LSTAR<br />

90


Poster Communications<br />

SP2<br />

Thursday, September 5th<br />

19:45<br />

Inflação Brasileira como um Processo de<br />

Memória Longa: Análise a partir do Modelo<br />

SARFIMA<br />

Marcela de Marillac Carvalho<br />

Ana Cláudia Festucci de Herval<br />

Thelma Sáfadi<br />

UFLA<br />

Uma relevante questão sobre a dinâmica dos preços da economia brasileira está relacionada à<br />

persistência inflacionária. Tal fenômeno pode ser caracterizado como a influência da variação de<br />

preços passados na inflação presente e está ligado ao processo de precificação dos produtos, a<br />

condução de política monetária e a formação de expectativas dos agentes econômicos (BATINI,<br />

2006). Neste contexto, este estudo tem como objetivo analisar o comportamento do processo<br />

da inflação brasileira após Plano Real, descrevendo-a como um processo de memória longa. Para<br />

tanto, modelos da classe ARFIMA (autorregressivo fracionário integrado de médias móveis) foram<br />

utilizados, pois permitem estudar séries caracterizadas por longas dependências temporais captando,<br />

assim, a presença de memória longa em altas defasagens de um processo autorregressivo. A análise<br />

considerou a variação percentual mensal do IPCA (índice de Preços ao Consumidor Amplo) no<br />

período de agosto de 1994 a abril de 2019. Inicialmente, aplicou-se testes de raiz unitária e de<br />

memória longa na série. Utilizou-se os testes de raíz unitária KPSS e Dickey-Fuller Aumentado<br />

(DFA) para averiguar a estacionariedade e determinar a integração a ser aplicada na série, conforme<br />

Nusair (2003). Já os procedimentos para detecção de memória longa basearam-se no GPH e<br />

Estatística R/S apresentados por Morettin (2017). A partir de então, estima-se modelos ARFIMA<br />

e SARFIMA, e com o modelo que descreve melhor o comportamento da série obtêm-se as previsões<br />

para o período. Os resultados indicam que para o período, o processo inflacionário brasileiro pode<br />

ser descrito por um modelo SARFIMA, ou seja, ele exibe um comportamento de persistência em sua<br />

média com a inserção de componentes sazonais. Além disso, a ordem integração fracionária obtida<br />

indicam um caráter estacionário na série do IPCA. Dessa forma, mesmo após o Plano Real é possível<br />

evidenciar a presença de um resquício de memória inflacionária na economia brasileira. Diante<br />

destes resultados, ferramentas econométricas, como processos da classe ARFIMA, são importantes<br />

no que se refere a elaboração de estratégias como formulações de políticas macroeconômicas e<br />

planejamento dos agentes.<br />

Keywords: Persistência Inflacionária; Memória Longa; Modelos SARFIMA<br />

91


Poster Communications<br />

SP2<br />

Thursday, September 5th<br />

19:45<br />

Information Theory Applied to Spatial ARMA<br />

Process: Boundary Detection on SAR Imagery<br />

Rinaldo do Herval Neto<br />

Abraão D. C. Nascimento<br />

UFPE<br />

Synthetic Aperture Radar (SAR) has been indicated as an efficient remote sensing tool (Lee &<br />

Pottier 2009). This fact is due to such systems may produce high resolution images and have the<br />

capability to operate under all weather conditions. However, SAR images are strongly contaminated<br />

by speckle noise. This phenomenon affects the visibility of SAR image features, precluding their<br />

analysis. Speckled data of SAR intensity often present a non-Gaussian and non-additive nature,<br />

requiring a treatment different of the image processing classic techniques. Thus, SAR imagery<br />

imposes two conditions for proposals of processing methods: models which take into account the<br />

noise and relief effects and the spatial dependence among pixels. In this work, one assumes that<br />

SAR intensities follow a spatial ARMA process (see, e.g., Bustos et al. 2009, Yao & Brockwell<br />

2006). Additionally, information theory measures are used to detect contrasts between SAR regions<br />

following the spatial ARMA process. In recent years the application of information theory (IT)<br />

operators to describe SAR image features has achieved a prominent position (Goudail et al. 2004,<br />

Nascimento et al. 2014). In particular, works in this line can be classified in two groups: papers<br />

which address deterministic measures (Goudail et al. 2004) and the ones that consider probability<br />

models associated with IT measures (Nascimento et al. 2010, Frery et al. 2013, 2014, Nascimento<br />

et al. 2014). This work collaborates in the second line. The adequacy of spatial ARMA models is<br />

firstly checked on actual SAR images. Subsequently, the following goals are addressed: 1. The<br />

implementation of distance measures for the spatial ARMA process and; 2. The proposal of<br />

boundary detectors as adaptation of the approach of Nascimento et al. (2014), for correlated SAR<br />

intensities.<br />

Keywords: Spatial ARMA Models; SAR Images; Boundary Detectors<br />

92


Poster Communications<br />

SP2<br />

Thursday, September 5th<br />

19:45<br />

Interval Prediction for Exponencial Smoothing<br />

Kaê da Silva Gremes<br />

Maria Sílvia de Assis Moura<br />

UFSCar<br />

Time series occupy an important place in statistical sciences, with a whole new variety of techniques<br />

developed just to the study and analyze of this kind of phenomena. Among these techniques, there<br />

is exponential smoothing. The 1st apparitions of these methods occurred by the late 50s, being<br />

improved and updated with the time, currently the exponential smoothing methods are popular<br />

in the analysis of a broad variety of time series. This work contains ways of generating interval<br />

predictions for the linear exponential smoothing methods, in other words, models in which the error<br />

has and additive structure. At 1st the models which are going to be analyzed are identified, then a<br />

brief review of theoretical prediction intervals based on the gaussian distribution is made. Finally<br />

some methods of bootstraping are developed.<br />

Keywords: Bootstraping; Exponencial Smoothing; Prediction interval; Time Series<br />

93


Poster Communications<br />

SP2<br />

Thursday, September 5th<br />

19:45<br />

Large deviations for Gaussian AR(1) Processes<br />

Maicon Josué Karling<br />

UFRGS<br />

Sílvia Regina Costa Lopes<br />

We have studied the large deviation properties of the Yule-Walker estimators for the parameter of<br />

a first order autoregressive Gaussian stationary process. The method that was used here consists<br />

in the decomposition of the Yule-Walker estimators into a linear combination of independent and<br />

identically distributed random variables, with a chi-squared distribution. The coefficients of this<br />

linear combination are the eigenvalues of a product of two Toeplitz matrices.<br />

Keywords: Large deviations; Autoregressive processes; Yule-Walker estimators<br />

94


Poster Communications<br />

SP2<br />

Thursday, September 5th<br />

19:45<br />

Locally stationary ARMA processes with<br />

tempered stable innovations<br />

Shu Wei Chou Chen<br />

IME/USP<br />

Pedro A. Morettin<br />

Locally stationary process is the class of processes that are approximately stationary in a neighborhood<br />

of each time point, but its structure, such as covariances and parameters, gradually<br />

changes throughout the time period. This type of processes has been proved to achieve meaningful<br />

asymptotic theory by applying infill asymptotics. In the literature, different areas have observed<br />

phenomena with heavy tail distributions and/or infinite variance. Although stable distribution<br />

presents attractive theoretical properties, such as the extremely heavy tails and stability under<br />

linear combinations, the fact that moments of order greater than two do not exist is a restrictive<br />

assumption in real-world applications. It is possible to change the tail behavior by tempering<br />

the stable distributions. As results, its center is similar to that of a stable distribution, but its<br />

tails are lighter and all moments are finite. This class of distribution, called tempered stable<br />

distributions, have been proved to fit in several applications. In this work, we study the locally<br />

stationary ARMA processes with standardized classical tempered stable (stdCTS) innovations ε t<br />

where ε t has zero mean and unit variance. Formally, the parameter space can be separated in two<br />

sets, that is, θ = (θ 1 , θ 2 ) where θ 1 is the parameter vector related to the locally stationary process<br />

and θ 2 = (α, λ + , λ − ) is related to the innovations. We propose a two-step parametric estimation<br />

in the following manner. Suppose that we are interested in estimating θ by maximizing a likelihood<br />

function L T (θ 1 , θ 2 ). In the first step, we obtain the blocked Whittle estimates ˆθ 1 , which does<br />

not depends on θ 2 . In the second step, we estimate θ 2 by maximizing L T (ˆθ 1 , θ 2 ). Note that if θ 1<br />

is known, we can recursively obtain ε t and by assuming {ε t } iid<br />

∼ stdCT S(α, λ + , λ − ), consistent<br />

maximum likelihood estimates for θ 2 can be obtained. However, although ˆθ 1 is asymptotically<br />

consistent and normal, it has a bias of ˆθ 1 − θ 1 , which can produce inaccurate estimation for θ 2 . In<br />

this paper, we present some theoretical results of the process and simulation study of the estimation<br />

method.<br />

Keywords: Locally stationary process; Tempered stable distributions; Two-step estimation<br />

95


Poster Communications<br />

SP2<br />

Thursday, September 5th<br />

19:45<br />

Long Memory and Term Structure of Interest<br />

Rates<br />

Fernanda Valente<br />

Márcio Laurini<br />

This article presents a modified version of Dynamic Nelson-Siegel model with long memory<br />

properties. The evolution of the latent factors are given by a fractional Gaussian noise process,<br />

which is approximated with a weighted sum of independent first-order autoregressive process, that<br />

can be represented as a Gaussian Markov Random Field. The purpose is to assess if a long memory<br />

component on the Dynamic Nelson-Siegel model helps to obtain more accurate forecasts of the<br />

term structure of interest rates. We compare our model with alternative specifications for the<br />

factors, including autoregressive and autoregressive fractionally integrated moving average models.<br />

The results indicate that long memory is indeed helpful for longer forecasting horizons. However, a<br />

persistence component do not seem to improve short horizon forecasts.<br />

Keywords: Term Structure; Long Memory; Bayesian Forecasting; Laplace Approximations<br />

USP<br />

96


Poster Communications<br />

SP2<br />

Thursday, September 5th<br />

19:45<br />

Modelagem da Volatilidade do índice Semanal<br />

de Preços do Etanol Hidratado Combustível no<br />

Estado de São Paulo Usando o Modelo<br />

Component GARCH<br />

Sandra Canton Cardoso<br />

ENCE/IBGE<br />

Fernanda Brito Mesquita<br />

Walter Macieira Vieira<br />

O carvão, o petróleo e o gás natural são as principais matrizes energéticas usadas na indústria.<br />

Junto com o crescimento acelerado da demanda destas, manifestou-se uma preocupação com a<br />

segurança de suprimento e com o meio ambiente, pois ocorrem na maioria das regiões produtoras<br />

de gás natural e de petróleo instabilidades geopolíticas, e também há pressões pela busca de fontes<br />

de energia renováveis e limpas para a redução das emissões dos gases de efeito-estufa. Esses<br />

fatores trazem preocupações sobre a avaliação da oferta de energia e também causa impactos nos<br />

preços desses insumos energéticos (CNI, 2007). Grando (2005) afirma que a expectativa de que<br />

as reservas globais de petróleo e gás natural venham a se tornar limitadas nas próximas décadas,<br />

causando um novo fomento para a procura de novos meios de suprimento energético. O Brasil é<br />

considerado um dos pioneiros no emprego do etanol na matriz de transporte e em 2008, no setor<br />

sucroalcooleiro foi calculado um valor referente a quase 2% do PIB total do Brasil. O fato do país<br />

deter o posto de segundo maior produtor de etanol no mundo e que no ano de 2011, São Paulo<br />

concentrou 58% da produção nacional de cana-de-açúcar e 60% de etanol hidratado, motivou este<br />

este estudo que tem por objetivo modelar a volatilidade do índice semanal de preços do Etanol<br />

Hidratado combustível no Estado de São Paulo no período de novembro de 2002 a setembro de<br />

2017 utilizando modelos ARMA-GARCH. Para isto foi utilizado o modelo Component GARCH, que<br />

é mais complexo que o GARCH padrão e foi desenvolvido em 1999 por Engle e Lee. O mesmo tem<br />

por objetivo explicar as volatilidades de longo e curto prazo. Foram testados modelos CGARCH(1,1)<br />

com distribuições condicionais t-Student e t-Student assimétrica e o modelo CGARCH(1,1) com<br />

Et t3 apresentou melhor desempenho na estimação da volatilidade.<br />

Keywords: Séries financeiras; Volatividade; ARCH; GARCH; Etanol<br />

97


Poster Communications<br />

SP2<br />

Thursday, September 5th<br />

19:45<br />

Modelos Fatoriais Bayesianos Aplicados a Séries<br />

Temporias<br />

Beatriz Rodrigues Pinna<br />

ENCE/IBGE<br />

Danielle Rodrigues Pinna<br />

Renata Souza Bueno<br />

Larissa de Carvalho Alves<br />

O objetivo deste trabalho é estudar os modelos fatoriais dinâmicos sob o ponto de vista Bayesiano.<br />

Para isso, estudos simulados são propostos para investigar a aplicabilidade destes modelos. Além<br />

disso, é realizada uma análise para investigar a relação entre séries temporais de mortalidade<br />

causadas por doenças relacionadas a fatores climáticos e séries temporais de indicadores ambientais,<br />

como temperatura, poluentes do ar e do solo.<br />

Keywords: Modelo fatorial; Inferência bayesiana; Fatores latentes<br />

98


Poster Communications<br />

SP2<br />

Thursday, September 5th<br />

19:45<br />

Macroeconomic Forecasting with Dynamic<br />

Factor Model: A Sparse Principal Components<br />

Approach<br />

Igor Ferreira Batista Martins<br />

FEARP/USP<br />

Márcio Laurini<br />

In recent years, the availability of large macroeconomic data sets has become increasingly common.<br />

If the number of potential predictors is larger than the number of time series observations, methods<br />

such as ordinary least squares and vector autoregressions are inadequate. An alternative is to<br />

represent the data set by a few latent factors and idiosyncratic components, indicating comovements<br />

and individual features, respectively. This representation suggests a factor model structure. Among<br />

factor models, Stock and Watson (2009) suggests the dynamic factor model as the standard<br />

framework for macroeconomic forecasting. Therefore, we will use it in this article. Both the<br />

loading and factors matrices are consistently estimated using principal component analysis (PCA).<br />

However, in finite samples, the model may have poor performance. This paper aims to estimate<br />

the dynamic factor model using sparse principal component analysis (SPCA). As presented in Zou<br />

et al (2006), SPCA is similar to PCA but allows the loading matrix to be sparse. Because of the<br />

sparse structure, it is possible to use the bias-variance trade-off to achieve more accurate estimates<br />

in finite samples. We apply the proposed methodology to the macroeconomic data set presented<br />

in Stock and Watson (2009). The Model Confidence Set does not reject the null hypothesis of<br />

equal predictive ability for the majority of variables. However, in some cases, the SPCA estimates<br />

provide better results than PCA ones. This is possible because PCA assumes that there are no<br />

measurement errors in the data set, while SPCA can remove noisy variables.<br />

Keywords: Dynamic Factor Model; Sparse Principal Components; Model Selection; Forecast<br />

99


Poster Communications<br />

SP2<br />

Thursday, September 5th<br />

19:45<br />

Maximum Entropy distributions on the circle<br />

with given cross-moment.<br />

J. C. S. de Miranda IME/USP<br />

We determine the maximum entropy distribution on the circle, D = {(x, y) ∈ R 2 : x 2 + y 2 ≤ 1},<br />

i.e., we determine the probability density function of the bivariate random vector (X, Y ) whose<br />

image is contained in D, under the following moment and cross-moment restrictions: EX = 0,<br />

EY = 0 and EXY = m, for an arbitrary real constant m.<br />

Keywords: Maximum Entropy; Calculus of Variations; Bessel Functions<br />

100


Poster Communications<br />

SP2<br />

Thursday, September 5th<br />

19:45<br />

Modelagem e Previsão da Inflação Anual<br />

Efetiva medida pelo IPCA<br />

Adriana dos Santos Lima<br />

UFMG<br />

Renato Valladares Panaro<br />

Patrícia Viana da Silva<br />

Silvio Cabral Patricio<br />

A inflação é o aumento do nível do preço de um determinado produto ao longo do tempo. Hoje, a<br />

inflação oficial dos bens e serviços presentes na economia brasileira é medida pelo índice de Preços<br />

ao Consumidor Amplo (IPCA) e essa medida representa o aumento ou a diminuição dos preços em<br />

um determinado período. A alta inflação é prejudicial para a economia de um país e, quando fora de<br />

controle, pode gerar diversos problemas, tais como, a desvalorização da moeda nacional e aumento<br />

dos preços de produtos importados, a diminuição dos investimentos no setor produtivo, aumento<br />

da especulação financeira, elevação da taxa de juros e aumento do desemprego, além do clima de<br />

instabilidade econômica e insatisfação popular. Para conter a inflação, no Brasil, desde 1999, é<br />

adotada a política de metas de inflação que consiste em manter a inflação anual dentro do intervalo<br />

de tolerância estipulado para o ano, conforme estabelecido pelo Conselho Monetário Nacional<br />

(CMN). O objetivo desse trabalho consiste em avaliar a série histórica do IPCA, considerando os<br />

índices produzidos entre dezembro de 1999 e março de 2019 (inclusive) e comparar modelos. Para<br />

tanto, foram depurados dados mensais do Sistema IBGE de Recuperação Automática (SIDRA)<br />

referentes ao IPCA acumulado anual. O foco do estudo é modelar e produzir estimativas para<br />

valores futuros do IPCA e, dessa forma, identificar padrões e tendências presentes na economia<br />

do Brasil por meio de modelos preditivos que serão comparados em termos da qualidade de suas<br />

previsões. Foi utilizada abordagem de modelos lineares dinâmicos normal com dois harmônicos<br />

e fatores de desconto baseados nas resoluções do histórico de metas para a inflação. O modelo<br />

de Box-Jenkins escolhido através do predictive power foi o modelo SARIMA(2,1,3)(1,0,2), este<br />

apresentou erros de estimação próximos a zero e as previsões foram comparadas com os valores<br />

do IPCA Efetivo, no entanto, apresentou erros de previsão expressivos. Foram confrontados os<br />

modelos de Box-Jenkins com o modelo linear dinâmico normal, e constatou-se a melhor performance<br />

do modelo dinâmico com relação ao seu poder preditivo.<br />

Keywords: Modelos Dinâmicos; Box-Jenkins; Séries temporais; IPCA; Inflação<br />

101


Poster Communications<br />

SP2<br />

Thursday, September 5th<br />

19:45<br />

Modelo Dinâmico Bayesiano para Avaliação do<br />

Impacto da Restrição de Vendas de<br />

Antimicrobianos na Resistência da Bactéria E.<br />

Coli<br />

Victor Fossaluza<br />

IME/USP<br />

Manuela Blaque Almeida<br />

Rafael Make Mussarelli<br />

A resistência bacteriana é considerada um grave problema de saúde pública segundo a Organização<br />

Mundial de Saúde (OMS) e o uso de antimicrobianos é um dos principais fatores relacionados<br />

a esse efeito. Com o intuito de diminuir o consumo desnecessário de antimicrobianos, assim<br />

como o uso de doses superiores as necessárias, a ANVISA criou uma lei para restringir as vendas<br />

desse medicamento (RDC 44), tornando obrigatório a apresentação de guia médica para adquirir<br />

o antimicrobiano. O objetivo deste estudo é avaliar o impacto dessa regulação nas vendas e<br />

na resistência bacteriana na região metropolitana de São Paulo. Para avaliar o consumo de<br />

antimicrobianos, foram utilizados dados do consumo de antimicrobianos em doses diárias definidas<br />

(DDD) por 1000 habitantes/dia, que indica a quantidade média de determinado antibiótico que<br />

uma dada população consome diariamente, observados mensalmente entre 2008 e 2016 na região<br />

metropolitana de São Paulo. Para a avaliação da resistência bacteriana, serão utilizados dados de<br />

amostras mensais obtidos em uma rede de laboratórios para esse mesmo período, relacionados à<br />

resistência da bactéria E. coli para diversos tipos de antimicrobianos. A série temporal das Vendas<br />

será relacionada com a série de Resistência da bactéria E. Coli para cada antimicrobiano estudado,<br />

utilizando um modelo dinâmico sob a abordagem bayesiana. Para o medicamento Amoxicilina,<br />

por exemplo, foi possível notar que com a redução nas vendas há uma redução na resistência da<br />

bactéria a esse antibiótico.<br />

Keywords: Modelo Dinâmico; Inferência Bayesiana; Séries Temporais<br />

102


Poster Communications<br />

SP2<br />

Thursday, September 5th<br />

19:45<br />

Modelo GAS Beta Univariado Aplicado a<br />

Inadimplência de Crédito do Brasil<br />

Renata Rojas Guerra<br />

UFSM<br />

Carla Daniela Monteiro da Silva<br />

Augusto Maciel da Silva<br />

Os modelos generalized autoregressive score (GAS) são modelos de séries temporais com parâmetros<br />

variantes no tempo e utilizam o vetor score como mecanismo de atualização.Foi realizada uma<br />

aplicação do modelo GAS beta univariado para analisar o comportamento da inadimplência de<br />

crédito do Brasil. Foram implementadas computacionalmente as funções GAS beta, e realizadas<br />

simulações de Monte Carlo para avaliação dos estimadores dos parâmetros do modelo. Foi ajustado<br />

um modelo GAS(1,1) considerando o modelo beta como densidade preditiva. Através dos testes<br />

de diagnóstico e medidas de precisão das previsões, o modelo GAS beta foi considerado como<br />

apropriado para avaliar o comportamento da inadimplência no país.<br />

Keywords: Inadimplência de crédito; Modelo GAS beta; Sistema financeiro nacional; Taxas e<br />

proporções<br />

103


Poster Communications<br />

SP2<br />

Thursday, September 5th<br />

19:45<br />

Modelo Lee-Carter Bayesiano com<br />

Improvement Dinâmico<br />

Renata Souza Bueno<br />

ENCE/IBGE<br />

Victhor Simões Sartório<br />

Larissa de Carvalho Alves<br />

O comportamento do decaimento da mortalidade tem se alterado nos últimos anos e hipóteses<br />

utilizadas por modelos estatísticos usados para sua modelagem podem necessitar de revisões. O<br />

Modelo Lee-Carter (Lee e Carter, 1992), e a sua versão bayesiana proposta por Pedroza (2006),<br />

assume que a velocidade relativa de queda de mortalidade entre idades diferentes se mantém<br />

constante ao longo do tempo, o que não parece ser uma hipótese razoável ao se considerar dados<br />

recentes para as taxas de mortalidade da população masculina dos Estados Unidos da América.<br />

Esse trabalho propõe um modelo baseado em Pedroza (2006) que incorpora a dinâmica temporal<br />

para essas velocidades de decaimento. Neste trabalho também é proposta uma metodologia para<br />

estimação aproximada desse modelo, a qual é aplicada aos dados da população masculina dos<br />

Estados Unidos da América e cujos resultados são comparados com a metodologia já existente na<br />

literatura.<br />

Keywords: Mortalidade; Inferência Bayesiana; Modelos Dinâmicos Lineares<br />

104


Poster Communications<br />

SP2<br />

Thursday, September 5th<br />

19:45<br />

Modelo Simplex Autoregressivo de Médias<br />

Móveis para Séries Temporais Limitadas<br />

(SARMA)<br />

Alisson de Oliveira Silva<br />

UFPE<br />

Camila R. da Silva<br />

Pedro A. Monteiro<br />

Jodavid de Araújo Ferreira<br />

Em várias situações práticas temos interesse em modelar dados restritos ao intervalo unitário<br />

(0,1), tais como taxas, razões e proporções. Dados dessa natureza surgem em diversos áreas do<br />

conhecimento, de modo que diversos autores têm dedicado especial atenção no desenvolvimento de<br />

modelos que levem em consideração a natureza limitada dos dados. Nesse sentido, as distribuições<br />

beta e simplex têm sido utilizadas em diferentes contextos para modelar dados restritos ao intervalo<br />

(0,1). Na perspectiva de modelos de regressão, Ferrari e Cribari-Neto (2004) propuseram um<br />

modelo de regressão baseado no modelo beta e Myashiro (2008) propôs um modelo de regressão<br />

baseado na distribuição simplex. Extensões desses modelos foram propostas por Simas et al. (2010)<br />

e Espinheira e Silva (2018) para os modelos beta e simplex, respectivamente, cujos autores assumem<br />

preditores não lineares para a estrutura da média e da dispersão. Apesar dos avanços no contexto<br />

de análise de regressão, existe uma quantidade incipiente de métodos que permitam considerar<br />

uma estrutura de dependência temporal entre observações limitadas ao intervalo (0,1). Rocha e<br />

Cribari-Neto (2009) apresentam um modelo para séries limitadas baseado na distribuição beta,<br />

considerando uma estrutura similar aos modelos autoregressivos de média móveis generalizados<br />

(Benjamim, 2003) que estendem os modelos ARMA (Box e Jenkins, 1994). Uma alternativa foi<br />

proposta por Bayer et al. (2017) em que se assume uma distribuição Kumaraswamy. Nesse trabalho,<br />

propomos um modelo alternativo aos modelos baseados nas distribuições beta e Kumaraswamy,<br />

supondo para a série observada uma distribuição simplex e preditor semelhante ao apresentado em<br />

Benjamim (2003). Os parâmetros do modelo serão estimados por máxima verossimilhança. Além<br />

disso, serão apresentadas expressões fechadas para a função escore e matriz de informação de<br />

Fisher associadas aos parâmetros do modelo. Além disso, será apresentado um estudo de simulação<br />

de Monte Carlo para avaliar o comportamento dos estimadores. Uma aplicação a dados reais será<br />

realizada para ilustrar a aplicabilidade do modelo proposto.<br />

Keywords: Séries temporais; Distribuição Simplex; SARMA<br />

105


Poster Communications<br />

SP2<br />

Thursday, September 5th<br />

19:45<br />

Modelos dinâmicos para dados censurados<br />

assimétricos e com caudas pesadas<br />

Gustavo Henrique Mitraud Assis Rocha<br />

ENCE/IBGE<br />

Roberto da F. Rutz<br />

Renata S. Bueno<br />

Os modelos de regressão censurados ou modelos Tobit são bastante usados para modelar variáveis<br />

respostas que são parcialmente observadas ou que possuem uma quantidade de valores agrupados<br />

em um valor limite. Esta classe de modelos pode ser aplicada em diversas áreas da ciência tais<br />

como econometria, biometria, ensaios clínicos, dentre outros. Um modelo robusto que acomoda<br />

observações atípicas para variáveis dependentes censuradas é o chamado modelo t-Tobit. O<br />

objetivo do trabalho é estudar a classe de modelos de regressão para dados censurados quando<br />

a variável de interesse é uma série temporal. A partir desta classe de modelos são analisados os<br />

casos em que a distribuição da componente de erro é assimétrica e/ou com caudas pesadas. Esta<br />

análise tem como finalidade investigar a flexibilização dos modelos dinâmicos Tobit.<br />

Keywords: Distribuição t assimétrica; Regressão censurada; Aumento de dados<br />

106


Poster Communications<br />

SP2<br />

Thursday, September 5th<br />

19:45<br />

Mudanças na estrutura de dependência<br />

intersetorial utilizando R-vine cópulas<br />

Renata Tavanielli<br />

FEARP/USP<br />

O objetivo deste trabalho é analisar a estrutura de dependência intersetorial utilizando dados de<br />

índices teóricos da BM&FBovespa de 2008 a 2018 e associar mudanças em sua composição a<br />

eventos econômicos e políticos. Para a modelagem dessa estrutura de dependência foram utilizadas<br />

R-vine cópulas devido a sua flexibilidade e parcimônia. Pela complexidade das R-vine cópulas e da<br />

utilização de dados multivariados neste contexto, foram utilizados dois métodos simples para análise<br />

do ajuste do modelo e verificação de mudanças na estrutura de dependência. Primeiramente, os<br />

modelos foram reestimados utilizando uma rolling window fixa e assim foram identificadas mudanças<br />

na estrutura de dependência dos retornos, inclusive mudanças das famílias de cópulas na relação<br />

entre eles. A segunda abordagem utilizada foi baseada no procedimento de Vostrikova (1981). As<br />

mudanças mais persistentes e prolongadas foram identificadas pelos dois métodos. Pela análise dos<br />

resultados, nota-se que a família de cópula predominante em todo o período analisado foi t-Student,<br />

indicando dependência simétrica entre os retornos e caudas inferior e superior pesadas. Durante o<br />

período de 2008 a 2012, nota-se uma maior dependência da maioria dos retornos em relação ao<br />

retorno do setor industrial. Aproximadamente de 2013 a 2015, nota-se uma maior dependência em<br />

relação ao setor financeiro. Por fim, do final de 2015 a 2018, nota-se uma maior dependência em<br />

relação ao retorno do setor de consumo. Estas mudanças das relações de dependência podem ser<br />

associadas aos períodos em que a economia brasileira estava aquecida, depois a crise política e<br />

início de recessão e, por fim, ao período de crise com aumento do desemprego e desaquecimento<br />

da indústria. Assim, os resultados aqui obtidos sugerem que a situação econômica-financeira da<br />

população afetam diretamente a estrutura de dependência dos retornos intersetoriais.<br />

Keywords: R-vine cópulas; Estrutura de dependência; Intersetorial<br />

107


Poster Communications<br />

SP2<br />

Thursday, September 5th<br />

19:45<br />

O Impacto dos Programas de Transferência de<br />

Renda Sobre a Oferta de Trabalho dos Casais<br />

Cristiane Alves dos Santos<br />

IFPA<br />

Marinalva Cardoso Maciel<br />

Fabrício Henrique Silva Cayres<br />

Samara Viana Costa<br />

Este trabalho pretende avaliar o efeito de Programas de transferência condicional de renda, em<br />

particular o Bolsa Família, sobre a oferta do trabalho de casais. Considerando o problema de<br />

não aleatoriedade na seleção dos beneficiários, será utilizada a técnica de pareamento por escores<br />

de propensão (propensity score). Os resultados demonstram que Programas de transferência<br />

condicional de renda, não afetam a probabilidade de participação no mercado de trabalho dos<br />

cônjuges de famílias beneficiárias. No entanto há uma redução nas horas dos cônjuges alocadas ao<br />

mercado de trabalho, sendo o impacto maior nas mulheres.<br />

Keywords: Transferência condicional de renda; Oferta de trabalho; Casais; Escores de propensão.<br />

108


Poster Communications<br />

SP2<br />

Thursday, September 5th<br />

19:45<br />

On Birnbaum-Saunders range model applied to<br />

financial data<br />

Erico Jander da Silva Lopes<br />

UFAM<br />

Jeremias Leão<br />

Themis Leão<br />

In this paper we introduce a new approach to the model conditional autoregressive range (CARR)<br />

model based on Birnbaum-Saunders distribution (BS). The model derived from this approach is<br />

named Birnbaum-Saunders CARR model (BSCARR).We use the likelihood approach to estimate<br />

the model parameters of BSCARR model and evaluate their performance using a Monte Carlo<br />

simulation study. The usefulness of the estimation methodology is demonstrated by analyzing<br />

real-world data.<br />

Keywords: Birnbaum-Saunders distribution; CARR model; Simulation study<br />

109


Poster Communications<br />

SP2<br />

Thursday, September 5th<br />

19:45<br />

On weighted Mallows distance in linear<br />

sequences<br />

Guilherme Pumi<br />

IME/UFRGS<br />

Taiane Schaedler Prass<br />

In this work we derive central limit theorems for the Mallows and weighted Mallows α-distance for<br />

causal linear processes under short and long range dependence. Under short range dependence, the<br />

limiting distribution is similar to the i.i.d. case, while under long range dependence, the results<br />

are very different presenting a slower decay rate and a certain degree of degeneracy. Based on<br />

the presented results, we study the problem of parametric estimation on causal linear processes<br />

for which the underline distribution belong to a location-scale family, under short and long range<br />

dependence. We introduce a weighted Mallows α-distance based estimator, which is shown to be<br />

strongly consistent. Central limit theorems for the short and long range dependent cases are derived.<br />

To asses the finite sample performance of the proposed estimator, a Monte Carlo simulation study<br />

is conducted and an application to the S&P500 stock index is presented.<br />

Keywords: Asymptotic theory; Linear processes; Mallows Distance; Time series; Long memory<br />

110


Poster Communications<br />

SP2<br />

Thursday, September 5th<br />

19:45<br />

Political Institutions and Economic<br />

Development: a Local Spatial Analysis for Brazil<br />

William Yasuhiko Nagai Suzuki<br />

FEARP/USP<br />

Márcio P. Laurini<br />

Political institutions, characterized by Acemoglu et al. (2001) and North and Thomas (1973), are<br />

an important component to explain economic development. The objective of this work is to measure<br />

the spatial heterogeneity of the relationship between political institutions and development. For<br />

this we use a spatial rolling window method applied to regressions, first presented in Fotheringham<br />

et al. (2002). The rolling method is: we select a municipality, open a window of the k nearest<br />

municipalities and run the regression on them; associate the estimates with the initial municipality<br />

and repeat this for all municipalities. In spatial econometrics, the common assumption is that the<br />

DGP is homogeneous for the whole map, that is an example of global statistical analysis. On<br />

the other hand, the advantage of the local statistical analysis is that we can capture the spatially<br />

changing DGP underlying the map. We find that using local samples, spatial regressions are<br />

easier to identify then using the whole country. Overall we find evidence that institutions increase<br />

development. But the local regressions show that for many parts of Brazil the effect is null. We<br />

present maps indicating where the relationship is positive, negative and non-significant. Our data<br />

is a spatial cross-section on the municipalities of Brazil for the year 2000.<br />

Keywords: Economic Development; Institutions; Local Statistical Analysis<br />

111


Poster Communications<br />

SP2<br />

Thursday, September 5th<br />

19:45<br />

Por quanto tempo durarão os recordes de Usain<br />

Bolt? Uma abordagem bayesiana em teoria de<br />

valores extremos para previsão de recordes no<br />

atletismo<br />

Daniel Takata Gomes<br />

ENCE/IBGE<br />

Lígia Henriques-Rodrigues<br />

Renata Souza Bueno<br />

No atletismo, os recordes do jamaicano Usain Bolt e da norte-americana Florence Griffith Joyner<br />

nos 100 m e 200 m rasos estão entre os mais espetaculares da história e foram estabelecidos<br />

há muitos anos. Muitos se perguntam quando serão superados, dada a evolução dos atletas ao<br />

longo do tempo. Esse trabalho tem como objetivo tentar responder a essa pergunta. Os dados<br />

considerados são os tempos dos 50 primeiros colocados do ranking mundial das provas de 100 m e<br />

200 m rasos, de 1989 a 2018. A distribuição desses tempos, em cada ano, sob certas condições,<br />

converge para uma distribuição de Pareto generalizada (GPD). Um modelo dinâmico bayesiano é<br />

proposto para os parâmetros de forma e de escala da distribuição. Consideramos uma distribuição<br />

a priori Beta modificada para o parâmetro de forma, de modo com que este varie em um intervalo<br />

negativo. Para o parâmetro de escala, uma distribuição a priori Gama deslocada é considerada. O<br />

limiar da GPD, em cada ano, corresponde ao 50 ◦ tempo do ranking mundial. A probabilidade de o<br />

recorde ser superado é obtida através de simulações da distribuição preditiva. Também é possível<br />

obter uma estimativa do valor esperado do tempo do primeiro colocado do ranking mundial. Os<br />

resultados indicam que existe uma baixa probabilidade de que os recordes analisados sejam em<br />

breve superados (probabilidades abaixo de 20% para um período de cinco anos).<br />

Keywords: Teoria de valores extremos; Distribuição de Pareto generalizada; Modelos dinâmicos<br />

bayesianos; Estatística em esportes<br />

112


Poster Communications<br />

SP2<br />

Thursday, September 5th<br />

19:45<br />

Precificação ao Mercado de Exportações<br />

Brasileiras: Uma análise de painel com fatores<br />

comuns não observados<br />

Daniel Quinaud Pedron Silva<br />

FEARP/USP<br />

Sérgio Kannebley Júnior<br />

Este trabalho utiliza modelos de painel com fatores comuns não observados para estimar coeficientes<br />

de Precificação ao Mercado de firmas exportadoras brasileiras. Estes modelos seriam mais adequados<br />

para esta estimação pois modelam os erros como estruturas de fatores, o que considera uma<br />

possível presença de dependência cross-section e heterogeneidade de efeitos dos fatores comuns.<br />

Comparando esta abordagem econométrica com estimadores tradicionais como o de Efeitos Fixos,<br />

foi encontrado que estimadores que modelam os erros como estruturas de fatores apresentaram<br />

melhor desempenho em termos de resíduos estacionários e não correlacionados na dimensão<br />

cross-section. Os resultados dos estimadores que apresentaram melhor desempenho nestes modelos<br />

indicaram que a maioria dos produtos estudados apresentou prática de Precificação ao Mercado no<br />

período analisado, havendo uma prevalência de coeficientes negativos, o que indica amplificação<br />

do efeito de variações cambiais pelo exportador. Este padrão é similar ao encontrado em Knetter<br />

(1989) para exportadores americanos. A média dos coeficientes variou entre 0,0251 e -0,0906,<br />

de acordo com o estimador considerado. Foram encontradas indícios de relação negativa entre o<br />

grau de intensidade tecnológica dos produtos e as estimativas dos coeficientes. As estimativas de<br />

modelos de correção de erros indicaram que as variáveis de preços de exportação, taxa de câmbio<br />

e os fatores comuns não observados possuem relações de longo prazo para todos os produtos. Os<br />

coeficientes de longo prazo do Modelo de Correção de Erros com fatores comuns não observados<br />

apresentaram um padrão diferente, sendo em sua maioria positivos e não significantes.<br />

Keywords: Comércio Internacional; Repasse Cambial; Modelos de Correção de Erros; Modelos de<br />

dados em painel; Precificação ao Mercado<br />

113


Poster Communications<br />

SP2<br />

Thursday, September 5th<br />

19:45<br />

Previsão dos preços do mercado de milho:<br />

existe modelo ótimo?<br />

Diego Pitta de Jesus<br />

UFPB<br />

Vinícius Phillipe de Albuquerquemello<br />

Rennan Kertlly de Medeiros<br />

Felipe Oliveira de Araújo<br />

Devido à relevância do milho em discussões de segurança alimentar e em assuntos energéticos, o<br />

uso de modelagens estatísticas que auxiliem na previsibilidade e no entendimento de determinantes<br />

de preços desse grão é de fundamental importância. Nesse sentido, o objetivo desse trabalho<br />

consistiu na comparação do grau de precisão de diferentes modelos econométricos aceitos na<br />

literatura de macro-econometria financeira para o período entre 1995 e 2017. A contribuição<br />

desse trabalho está no uso de diferentes pressupostos da dinâmica de preços do milho por meio<br />

de modelos random-walk, autorregressivos uni e multivariados, além de modelos que acomodam<br />

quebras estruturais. Os principais resultados apontam que o melhor modelo depende do horizonte<br />

em que a análise out-of-sample foi feita, e da estrutura de mercado dessa commodity em diferentes<br />

momentos do tempo.<br />

Keywords: Previsão; Milho Spot; Precisão; Modelos Econométricos<br />

114


Poster Communications<br />

SP2<br />

Thursday, September 5th<br />

19:45<br />

Previsão via modelos de Regressão de<br />

Decomposição Temporal, Box-Jenkins e Rede<br />

Neural MLP para série mensal média de<br />

temperatura mínima de Campinas<br />

Miriam Rodrigues Silvestre<br />

UNESP<br />

Manoel Ivanildo Silvestre Bezerra<br />

O estudo e acompanhamento das séries de dados climatológicos vêm sendo uma preocupação da<br />

sociedade atual, principalmente no tocante ao tema mudanças climáticas e todas as implicações que<br />

estas podem provocar no futuro. Desta forma, são necessários modelos estatísticos e computacionais<br />

com boa capacidade preditiva para a realização dessa tarefa. Entre as séries de dados relacionadas<br />

ao clima, as de temperatura apresentam especial interesse, por sua importância para as atividades<br />

humanas, principalmente para atividades agrícolas, além de interferir diretamente na saúde e bem<br />

estar de animais e do próprio homem. O município de Campinas (SP) é um dos mais importantes<br />

do estado de São Paulo, com uma população estimada de 1.194.094 habitantes em 2018; o<br />

PIB per capita, em 2016, foi de R$49.876,62, ocupando a 70 a posição entre 645 municípios do<br />

estado, segundo dados do IBGE. Em 2010, obteve o índice de Desenvolvimento Humano Municipal<br />

(IDH-M) de 0,805, na faixa muito alto (0,800 a 1), ocupando a 14 a posição no ranking estadual e<br />

28 a no país (Brasil). O município conta com a estação meteorológica da CEPAGRI/Unicamp, da<br />

qual foram obtidos os dados e ajustados três modelos à série de médias mensais de temperatura<br />

mínima do ar, sendo esses: o modelo de regressão de decomposição temporal; o modelo SARIMA<br />

de Box-Jenkins e um modelo Perceptrons de Múltiplas Camadas (MLP) de Redes Neurais Artificiais<br />

(ANN). O período utilizado foi de junho de 1988 a junho de 2016, sendo que, do início do período<br />

até maio de 2015 foi destinado para a construção dos modelos e de junho de 2015 a junho de<br />

2016 para avaliar a capacidade preditiva dos mesmos. Os resultados obtidos indicam que a rede<br />

neural MLP obteve melhores resultados para as estatísticas: Erro Médio Absoluto (MAE) e Raiz<br />

do Erro Quadrático Médio (RMSE). A rede neural MLP foi gerada usando o software R, mais<br />

especificamente o pacote “forecast”. Os resultados foram promissores para a técnica de ajuste por<br />

Rede Neural Artificial.<br />

Keywords: Temperatura mínima; Perceptrons de Múltiplas Camadas; Sarima; Regressão por<br />

Decomposição Temporal; Série Temporal<br />

115


Poster Communications<br />

SP2<br />

Thursday, September 5th<br />

19:45<br />

Redes neurais wavelets no reconhecimento de<br />

doenças<br />

Aline Edlaine de Medeiros<br />

UEM<br />

Eniuce Menezes de Souza<br />

Mauricio Roberto Veronez<br />

Márcia Lorena Alves dos Santos<br />

José Raimundo de Souza Passos<br />

Luiz Gonzaga Jr<br />

Este trabalho trata da possiblidade de análise de dados bidimensionais (imagens) com natural<br />

dependência entre as observações para discernimento entre doenças em folhas de Eucalypto como<br />

a bacteriose e a mancha foliar a partir de redes neurais wavelets. Com a combinação das wavelets<br />

e redes neurais é possível estimar parâmetros de translação e dilatação das wavelets otimizados,<br />

adaptativos e adequados para a representação de relações entre dados dependentes específicos e<br />

alguma variável de interesse. Resultados preliminares mostraram que a rede neural wavelet foi capaz<br />

de discriminar satisfatoriamente a doença foliar do eucalipto apresentando resultados melhores em<br />

comparação com investigações anteriores usando redes neurais tradicionais e modelos clássicos<br />

estatísticos.<br />

Keywords: Wavelets; Redes neurais; Eucalipto; Doenças foliares<br />

116


Poster Communications<br />

SP2<br />

Thursday, September 5th<br />

19:45<br />

Regressão Quantílica e VaR: Uma Aplicação de<br />

Quantis Condicionais Extremos para os<br />

Retornos Relativos ao IBOVESPA e Petrobrás<br />

Wilton Bernardino da Silva<br />

UFPE<br />

Renan Oliveira Regis<br />

Rafael Moura Azevedo<br />

Ana Katarina Campelo<br />

Análises de risco têm recebido uma atenção substancial em Economia e Finanças ao ser o foco<br />

de uma vasta literatura neste campo. O principal foco deste trabalho é aplicar a teoria e os<br />

métodos de quantis extremos na avaliação de fatores correlacionados à gestão de risco em duas<br />

séries do mercado financeiro brasileiro (IBOVESPA e Petrobrás). A principal metodologia utilizada<br />

é proposta por Chernozhukov and Du (2006), que descreve técnicas de estimação para quantis<br />

extremos condicionais, tendo como base a regressão quantílica (Koenker and Bassett, 1978).<br />

A atratividade desse método reside no fato de que ele estima diretamente os quantis extremos<br />

condicionais, os quais representam as estimativas do VaR. Finalmente, o índice de cauda pode ser<br />

calculado, dando uma idéia da probabilidade de ocorrência desses eventos extremos. Os resultados<br />

adquiridos com o uso do bootstrap extremo atestam que a regressão quantílica aplicada à quantis<br />

extremos fornece previsões precisas de VaR.<br />

Keywords: Regressão quantílica; Teoria do valor extremo; Valor em risco<br />

117


Poster Communications<br />

SP2<br />

Thursday, September 5th<br />

19:45<br />

Resampling Time Series using the Wavelet<br />

Transform<br />

Aline Edlaine de Medeiros<br />

UEM<br />

Márcia L. A. dos Santos<br />

Eniuce M. de Souza<br />

Brani Vidakovic<br />

Among the techniques that allow the resampling in Time Series is the decomposition from the<br />

Wavelet Transform. This technique is able to rewrite time series in terms of smooth and detail<br />

wavelet coefficients with reduced serial autocorrelation. One of the classical methods of resampling<br />

is the Parallel Bootstrap that uses the Decimated Discrete Wavelet Transform and the parallel<br />

re-sampling of wavelet coefficients to generate replicas of a time series. The advantage of applying<br />

the bootstrap is due to the possibility of estimating parameters as well as confidence intervals even<br />

with small time series. In this paper, we propose to comparethe bootstrap method using a new<br />

resampling methodology based on the Non-decimated Discrete Wavelet Transform (NDWT). Unlike<br />

the decimated transform, the potential of the NDWT is to preserve the same number of wavelet<br />

coefficients at each level of multiresolution. To evaluate the performance of both techniques,<br />

confidence intervals were estimated for simulated time series and also for time series from the<br />

number of Meninginte cases collected from the Brazilian DATASUS system. In addition, both<br />

methods were evaluated for the preservation of the Hurst exponent, a measure used to evaluate<br />

the intensity of autocorrelation inherent to time series, especially Higuchi’s estimation method is<br />

being used due to its robustness. When assessing the Hurst exponent before and after resampling,<br />

it is possible to analyze whether the autocorrection present in the time series was preserved by the<br />

bootstrap. The obtained results indicate that both resampling methods are effective in preserving<br />

the Hurst exponent, as well as generating satisfactory confidence intervals.<br />

Keywords: Non-decimate Wavelet Transform; Bootstrap; Hurst Exponent<br />

118


Poster Communications<br />

SP2<br />

Thursday, September 5th<br />

19:45<br />

Tragedies of Mariana and Brumadinho and the<br />

stock market of Companhia Vale S.A.: an<br />

application of ARIMA models with intervention<br />

Thelma Safadi<br />

UFLA<br />

Thaís Alves dos Santos<br />

Gabriel Rodrigo Gomes Pessanha<br />

Nikolaos Kourentzes<br />

Vale S.A. is a Brazilian publicly traded company headquartered in the state of Rio de Janeiro (RJ), with<br />

operations in more than 30 countries. Its shares are traded on the B3 stock exchanges, New York, Hong<br />

Kong and Paris. It is present in 38 countries in the Americas, Africa, Europe, Asia and Oceania, being the<br />

world’s largest producer of iron ore. In recent times, the breakdown of the dams of Mariana (November<br />

2015) and Brumadinho (January 2019) brought social, environmental, economic and financial impacts to the<br />

families and regions in which the tragedies occurred. Given the importance of the company to the Brazilian<br />

economy and the consequences of the tragedies of Mariana and Brumadinho, the objective of this work is to<br />

verify the interventionist character of the dam breaks in the series of daily return of the stock price of Vale do<br />

Rio Doce in the period of January from 2010 to March 2019. In other words, the purpose of this study is to<br />

verify how the stock market reacted after the tragedies and whether they were in any way incorporated into<br />

the returns of VRD’s shares. The stock price series is daily and was collected in the Economtica database.<br />

The stock return series was calculated and implemented the first difference in the series to remove the<br />

trend component. Next, the models of the ARMA class were adjusted with the inclusion of the dates of<br />

the rupture of the dams of Mariana and Brumadinho as potential interventions in the time series of return.<br />

The ARIMA model (8,1,3) presented statistical significance and the interventions included in the models<br />

presented a negative relationship with the series of returns, presenting a coefficient of -13.6193 for the<br />

breakdown of the Mariana dam and -0.2279 for the Brumadinho dam. In other words, it can be stated on<br />

the basis of the results found that the stock market reacted to the rupture of the Mariana and Brumadinho<br />

dams with a destruction of value for the shareholders of Companhia Vale S.A.. It is important to point out<br />

that it is also possible to observe a financial and economic impact on the company’s equity, since it required<br />

and still needs to pay fines and compensation for the social and environmental damages caused. For future<br />

research, it is suggested that the company Samarco Minerao S.A. be included in the analyzes and, later, an<br />

evaluation of the impacts of the dam disruptions on its economic and financial situation. Finally, we highlight<br />

the importance of studies of this nature, since it addresses a current and relevant topic in the national and<br />

international scenario as well as the quantitative measurement of its impact on the Brazilian stock market.<br />

Keywords: Dams; Intervention analysis; Companhia Vale S.A.; Mariana; Brumadinho<br />

119


Poster Communications<br />

SP2<br />

Thursday, September 5th<br />

19:45<br />

Utilizando um Modelo Probit Espacial para<br />

Analisar a Relação entre o Ambiente Construído<br />

e a Escolha pelo Modo a Pé<br />

Alan Ricardo da Silva<br />

Carlos Eduardo Teixeira Neves<br />

Fabina Serra de Arruda<br />

UnB<br />

A pesquisa sobre como as características urbanas, comumente categorizadas nas 5 D’s (densidade,<br />

diversidade, desenho, disponibilidade de destinos e distância para o transporte coletivo), influenciam<br />

a escolha modal nos deslocamentos cotidianos é recorrente, principalmente em países desenvolvidos.<br />

O objetivo principal é que o entendimento dessas relações consiga subsidiar a criação de políticas<br />

urbanas que promovam o desenvolvimento sustentável. Nesse sentido, a caminhada representa<br />

um dos meios de locomoção a serem incentivados, pois é o modo com menor gasto energético e<br />

exigência de espaço de circulação. Este estudo buscou então analisar a relação entre a escolha por<br />

esse modo e as características do ambiente construído por meio de um modelo de regressão probit<br />

espacial. A pesquisa utilizou como base de dados de viagens a pesquisa Origem-Destino de 2007<br />

do município de São Paulo e as características do ambiente construído foram obtidas em ambiente<br />

SIG. Após o tratamento e filtragem da amostra, foram consideradas 7.329 viagens. Os resultados<br />

indicaram que a inclusão de dependência espacial na escolha (variável dependente) não melhora o<br />

ajuste em comparação ao modelo probit não espacial, mas ocorre melhora de ajuste quando são<br />

considerados os efeitos espaciais das variáveis independentes. Ademais, os resultados indicam que,<br />

para São Paulo, as medidas do ambiente construído mais relacionadas à escolha pelo modo a pé<br />

são a entropia e a distância para o centro, variáveis representantes da diversidade de usos e da<br />

disponibilidade de destinos, respectivamente.<br />

Keywords: Regressão espacial; Probit espacial; Modelo de escolha discreta<br />

120


Poster Communications<br />

SP2<br />

Thursday, September 5th<br />

19:45<br />

Uma abordagem intervalar para estimação do<br />

risco na determinação de ativos de capital<br />

Wanessa Weridiana da Luz freitas<br />

UFPE<br />

Dailys Maité Aliaga Reyes<br />

Renata Maria Cardoso Rodrigues de Souza<br />

Francisco José de Azevêdo Cysneiros<br />

Aplicação do Modelo Capital Asset Pricing Model (CAPM), utilizando a abordagem de dados<br />

intervalar.<br />

Keywords: CAPM; REGRESSAO; ANáLISE DE DADOS SIMBóLICO; DADOS INTERVALAR<br />

121


Poster Communications<br />

SP2<br />

Thursday, September 5th<br />

19:45<br />

Utilização de Séries Temporais em modelagem<br />

na Bolsa de valores: Uma aplicação em dados<br />

da BM&FBOVESPA<br />

Anny Kerollayny Gomes Rodrigues<br />

UFPE<br />

Pedro M. A. Junior<br />

Jodavid A. Ferreira<br />

Neste trabalho foi utilizado a classe de modelos de espaço de estado juntamente com o ARIMA<br />

para prever o preço de fechamento mensal da ação do Itau S.A. nos meses de janeiro a abril de<br />

2019.<br />

Keywords: Séries Temporais; Modelos de Espaço de Estado; Mercado Financeiro<br />

122


Poster Communications<br />

SP2<br />

Thursday, September 5th<br />

19:45<br />

Wavelet Estimation for Factor Models with<br />

Time-Varying Loadings<br />

Chang Chiann<br />

IME/USP<br />

Duván H. Cataño<br />

Daniel Peña<br />

Carlos Vladimir Rodríguez-Caballero<br />

We introduce a non-stationary factor model with time-varying loadings and propose an estimation<br />

procedure in two stages. First, we estimate common factors by principal components. In the<br />

second step, given these estimated factors, the time-varying loadings are estimated by an iterative<br />

procedure of generalized least squares using wavelet functions. A Monte Carlo simulation study<br />

is conducted to examine the finite sample features of the proposed methodology. Moreover, we<br />

illustrate the proposed methodology with an application to a real data set.<br />

Keywords: Factor models; Wavelet functions; Generalized least squares; Principal components<br />

123


Poster Communications<br />

SP2<br />

Thursday, September 5th<br />

19:45<br />

São Paulo city is 2oC hotter in the last 50 years:<br />

regression model with autoregressive errors or<br />

with lagged temperatures?<br />

Airlane Pereira Alencar<br />

IME/USP<br />

Our main goal is to estimate the annual mean increase of the monthly mean temperature in São<br />

Paulo city based on the temperature from 1960 to 2017. Firstly, it is proposed a regression model<br />

with linear trend and sine and cosine functions to take into account the seasonality. As the errors<br />

are supposed to be autocorrelated, this may be modelled including autoregressive errors or including<br />

the lagged temperature in the regression model. The main advantages and disadvantages of both<br />

proposals are discussed, as the easier parameter interpretation and the asymptotic variance of<br />

the trend estimator. There is evidence that the temperature trend is not changing over time. All<br />

the proposed models, leads to a significant increase of 1.9oC in 50 years in São Paulo city, with<br />

95% CI = [1.6; 2.2] for the AR error model, which is beyond the limits announced in the Paris<br />

Agreement of 2015.<br />

Keywords: Autoregressive models with covariates; Global warming; Autocorrelated regression<br />

model; Temperature; Time series analysis<br />

124


Useful Information<br />

Talks will be held at the Rubi and Safira Conference Halls of Serra Azul Hotel.<br />

The poster sessions will be held at the Esmeralda and Topazio Conferance Halls, where the<br />

coffee breaks will also be offered.<br />

The electronic version of this <strong>book</strong> of abstracts can be found at:<br />

http://redeabe.org.br/este2019/<br />

125


Partner Institutions and Sponsors<br />

Sponsors<br />

Organization<br />

Support<br />

126

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!