ANÁLISE DE SÉRIES TEMPORAIS - Observatório … › wp-content › uploads › ...4....

Post on 24-Jun-2020

9 views 0 download

Transcript of ANÁLISE DE SÉRIES TEMPORAIS - Observatório … › wp-content › uploads › ...4....

ANÁLISE DE SÉRIES TEMPORAIS

Introdução e Fundamentos Estatísticos

Campo Grande, abril de 2017

Elaboração:

Equipe Observatório Econômico:

Letícia Cavessana

Diretor: Clauber A. Aguiar

SUPERINTENDÊNCIA DE PLANEJAMENTO E GESTÃO

ESTRATÉGICA COORDENADORIA DE PESQUISA

Introdução • Uma série temporal é dita ser contínua quando as

observações são feitas continuamente no tempo. Definindo o conjunto T = t : 𝑡1 < t < 𝑡2 a série temporal será denotada por X (t): t Є T.

• Uma série temporal é dita ser discreta quando as observações feitas em tempos específicos geralmente são equiespaçados no tempo. Definindo o conjunto T = 𝑡1, ..., 𝑡𝑛 a série temporal será denotada por 𝑋𝑡: t Є T.

• Uma série temporal também pode ser multivariada. Se k variáveis são observadas a cada tempo (por exemplo discreto) denota-se por 𝑋1𝑡, ..., 𝑋𝑘𝑡, t Є T. Neste caso várias séries correlacionadas devem ser analisadas conjuntamente, ou seja em cada tempo tem-se um vetor de observações.

Sazonalidade

Muitas séries temporais exibem um comportamento que tende a

se repetir a cada períodos de tempo. Por exemplo, é esperado

que as vendas mensais no setor varejista tenham um pico no

mês de dezembro. Este padrão possivelmente já se repete ao

longo de vários anos. A seguir alguns modelos sazonais:

1. Sazonalidade deterministica. Variáveis dummies (binarias).

O coeficiente de cada variável dummy representa o fator

sazonal do respectivo mês, trimestre, etc.

2. Funções trigonométricas.

3. Sazonalidade estocástica:

a) Variável endógena com defasagem sazonal no modelo

(modelos ARMA periódicos),

b) modelo ARMA sazonal.

Tendência

• Uma série pode exibir tendência de

crescimento/decrescimento com vários possíveis

padrões:

• Crescimento linear: crescimento igual em cada período.

• Crescimento exponencial: crescimento percentual, ainda que

igual em cada período.

• Crescimento amortecido: crescimento que diminui a cada

período.

Estacionariedade: Um processo estacionário tem a

propriedade de que a média, variância e estrutura de

autocorrelação não mudam no decorrer do tempo.

Estacionariedade pode ser definida em termos

matemáticos precisos, mas para os nossos propósitos

queremos dizer uma série parecida com um plano liso,

sem tendência, variância constante no decorrer do tempo,

um estrutura de autocorrelação constante no decorrer do

tempo e nenhuma flutuação periódica (sazonalidadae).

Processo Estocástico: um processo estocástico é uma

família de variáveis aleatórias, que supomos definidas num

mesmo espaço de probabilidades (Ω, A, P).

Z = Z(t), t Є T tal que, para cada t Є T, Z(t) é uma variável

aleatória.

O conjunto é normalmente tomado como o conjunto dos

inteiros = ±1, ±2, ±3,....

Fundamentos Estatísticos 1. Esperança Condicional e Incondicional;

2. Processos Autorregressivos;

3. Processos Estocásticos;

4. Autocovariância e Autocorrelação;

5. Estacionariedade;

6. Ergodicidade;

7. Ruído Branco;

8. Médias Móveis;

9. Processos Autorregressivos;

10. Processo Autorregressivo de médias móveis – ARMA (p, q);

11. Função Geradora de Autocovariâncias;

12. Filtros;

13. Invertibilidade;

1. Esperança Condicional e Incondicional

Considerando o espaço amostral Ω, podemos calcular a

esperança não condicional de uma variável aleatória Y:

E (y |Ω) = E (y )

Lei das expectativas totais:

E [E (y |Ω)] = E (y |Ω) = E (y )

Seja agora θ o subconjunto de Ω sobre o qual y está

definido. Podemos então definir a lei das expectativas

iteradas:

E [E (y |A ∪ B)|A] = E (y |A)

O menor conjunto de informação é o que determina a

média condicional.

• Considerando que a cronologia das informações não

pode ser quebrada, temos o exemplo a seguir com AR:

𝑦𝑡 = μ + φ 𝑦𝑡−1 + ε𝑡

em que E (ε𝑡|I𝑡−1) = 0.

• A esperança de 𝑦𝑡+2 condicional à informação I𝑡+1 é:

E (𝑦𝑡+2 | 𝐼𝑡+1) = μ + φE (𝑦𝑡+1|𝐼𝑡+1) = μ + φ𝑦𝑡+1

• A esperança não condicional é:

E (𝑦𝑡+2) = μ + φE (𝑦𝑡+1)

Nada garante que E (𝑦𝑡+2) = E (𝑦𝑡+1).

• Sabendo-se que prevalece a esperança condicional

tomada sob o conjunto com informação mais limitada,

então o conjunto de informação da média incondicional é

mais limitado que o da média condicional.

• Esperança condicional

• Possui um erro quadrático médio de previsão menor do que se

fosse usada a média incondicional de y. Isso porque o conjunto

condicionante possui mais informações que o conjunto

incondicional e, por isso, o erro quadrático é médio é menor.

2. Processos Autorregressivos

• Um processo autorregressivo imediato:

𝑦𝑡 = φ 𝑦𝑡−1 + ε𝑡 ,

ε𝑡 ∼ i.i.d. (0, ζ²) ,

Em que i.i.d. implica idêntica e independentemente

distribuído.

• Suponha que 𝑦𝑡 represente a inflação. Dizia-se que no

Brasil no período da hiperinflação, essa inflação era

inercial: φ = 1.

• Estimar a série por MQO e testas as hipóteses:

H0 : φ = 1 × H1 : φ < 1

• Em se tratando de séries temporais esse tipo de

estimação pode causar sérios problemas.

• O primeiro problema é que o momentos incondicionais

devem ser iguais:

E (𝑦𝑡) = E (𝑦𝑡−1)

• Caso contrário, E (𝑦𝑡 ) 6= E (𝑦𝑡−1 ) não se poderiam

estimar os momentos da série por falta de dados. Não

seria possível estimar t médias e variâncias dessa série.

Portanto:

E (𝑦𝑡) = 0

• O equivalente dessa condição em uma economia

estocástica é ter as esperanças incondicionais iguais

para todo t.

• Outro problema fundamental surge no cálculo da variância:

var (𝑦𝑡) = φ 2 var (𝑦𝑡−1) + var (ε𝑡) + 2φcov (𝑦𝑡−1, ε𝑡)

• Se |φ| > 1, a variância de yt seria negativa, o que é um absurdo. Se |φ| = 1, a variância de yt é infinita, o que impossibilita a inferência estatística.

• Conclusão: é necessário estabelecer restrições sobre a série temporal para que se possa estimá-la. Em particular, uma condição necessária para estimar a série é que |φ| < 1.

• Os processos auto-regressivos são muito importantes porque definem se uma série temporal estocástica é “estável” ou estacionária. Um processo auto-regressivo estacionário possui coeficientes que fazem 𝑦𝑡 flutuar ao redor de uma dada média, ou seja, 𝑦𝑡 não explode.

3. Processos Estocásticos

• A série temporal 𝑦1, 𝑦2, ..., 𝑦𝑇 decorrente de uma variável aleatória Y é uma possível realização do processo estocástico gerador dos dados. • Ex.: Imagine que amanhã ou chove ou faz sol. Suponha

que amanhã acabe fazendo sol. Entretanto, poderia ter chovido. Uma possível realização foi o tempo de sol; a outra possível seria chover. Porém, ao mesmo tempo que faz sol em um lugar pode estar chovendo em outro.

• Do ponto de vista estatístico, imagina-se que o mesmo processo gerador de dados que determinou o sol em uma determinada localidade também determina a chuva em outra.

• A série observada é uma possível realização do processo

estocástico gerador de dados. Na figura a seguir temos

duas possibilidades de sequências de Y, considerando

um distribuição normal: Y ~ N (0, ζ²).

O que se observa é

uma possível

realização de um

processo

estocástico.

• Sabendo que Ω representa o conjunto amostral e θ os

subconjuntos de Ω, cuja probabilidade associada a cada

um deles é P, temos:

• Definições:

• Para cada t ϵ Z, y (.,t) representa uma variável aleatória sobre S.

Além disso para cada s ϵ S, a sequência y(s,.) representa uma

realização de um processo estocástico. Desse modo, y (s,t) é

simplesmente um número real.

• Formalmente, a esperança condicional da variável aleatória yt é:

• Se, por outro lado, fosse especificado que 𝑦𝑡 = δ𝑡 + ε𝑡, então:

E (𝑦𝑡) = δt

4. Autocovariância e Autocorrelação • A função de autocovariância é definida como:

• Sejam ε𝑡~ i.i.N (0, ζ²) e 𝑦𝑡 = μ + ε𝑡, então:

• A variância é dada por ϒ0𝑡. Observe que as variâncias não condicionais de y𝑡 = μ + ε𝑡 e y𝑡 = δ𝑡 + ε𝑡 são idênticas.

• A autocorrelação:

5. Estacionaridade • O processo estocástico ou a série temporal é fracamente

estacionário se: E | y𝑡 | 2 < ∞;

• Apenas o segundo momento não centrado deve ser finito, ainda que desigual em diferentes períodos.

E (y𝑡) = µ, para todo t ∈ Z;

• A média é igual para todo o período, mesmo que a distribuição da variável aleatória vá se alterando ao longo do tempo.

E (y𝑡 − µ) (y𝑡−j − µ) = ϒj.

• A variância é sempre igual para todo o período de tempo e que a autocovariância não depende do tempo, mas apenas da distância temporal entre as observações.

• O processo estocástico, ou a série temporal, é estritamente

estacionário se a função de distribuição de y𝑡𝑖𝑘

𝑖=1 for igual à

função de distribuição de y𝑡𝑖+ℎ𝑘

𝑖=1, h ϵ Z, isto é:

• Estacionaridade estrita significa que os gráficos da função de

distribuição da série em quaisquer dois intervalos de tempo

igual tamanho exibirão propriedades estatísticas similares

(Brockwell e Davis, 1991). Significa, na prática que os

momentos populacionais, quando existem, são independentes

de t.

• A estacionaridade estrita não implica nem é implicada pela

estacionaridade fraca.

• Visualmente, observa-se estacionaridade se uma série flutua

em torno de uma média fixa e se a variância da série é

constante ao longo do tempo. Porém são necessários testes

estatísticos para verificar ou não a estacionaridade da série.

6. Ergodicidade • Não é possível estimar uma série temporal apenas com a

propriedade de série temporal

• A estimação necessita satisfazer a propriedade de ergodicidade.

• A ergodicidade permite usar série temporal para calcular as médias em cada instante de tempo. Como as médias são todas iguais, basta uma única realização da série para viabilizar o cálculo.

• Suponha a realização s:

• Se ȳ convergir para E (𝑦𝑡), existe ergodicidade. Ou seja, se a média temporal convergir para a média não condicional, há ergodicidade. Sendo assim, a série temporal pode ser estimada normalmente, mesmo com uma realização apenas do processo estocástico.

• Um processo fracamente estacionário é ergódico para o

primeiro momento se:

E (ȳ(𝑠)) ≡ 𝑝 lim𝑡→∞

1

𝑇 𝑦𝑡

(𝑠)𝑇𝑡=1 = 𝑝 lim

𝑆→∞

1

𝑆 𝑦𝑡

(𝑠)𝑆𝑠=1 ≡ E (𝑦𝑡)

• Primeiro: a esperança de cada uma das observações é igual

(restrição de estacionaridade fraca).

• Segundo: pode-se estimar essa esperança tomando a média

temporal das observações (restrição de ergodicidade).

• Prova-se que 𝑦𝑡 é ergódico para as médias se a soma

das covariâncias for finita:

ϒ𝑗∞𝑗=0 < ∞

• Um processo fracamente estacionário é ergódico para o

segundo momento se:

1

𝑇−𝑗 (𝑇𝑡=1 𝑦𝑡 - μ) (𝑦𝑡−𝑗 - μ)

𝑃→ ϒ𝑡, para todos j

• Em que 𝑃→ significa convergência em probabilidade.

• Na prática requerer estacionaridade acaba sendo o

mesmo que requerer ergodicidade, mas existem casos de

estacionaridade sem existir ergocidade.

7. Ruído Branco • Uma sequência ∈𝑡 é um ruído branco se:

• cada valor nela tiver média zero;

• variância constante; e

• não for correlacionado com qualquer realização da própria série

(autocorrelação igual a zero).

• A média zero é conveniência, pois seria possível

especificar um ruído branco cuja média fosse diferente de

zero. Entretanto, pode-se centrar em zero tal série, sem

prejuízo de suas demais propriedades.

• Diz-se que o processo é um ruído branco, cuja

representação é RB (0, 𝜎2).

• Chama-se ruído branco porque sua função densidade

espectral é horizontal como a luz branca e o processo

provoca alterações na série assim como as ondas

eletromagnéticas produzem ruídos na sintonização de um

rádio. Portanto, um ruído branco é, ao mesmo tempo,

temporalmente homogêneo, estacionário e sem memória • Memória: processo em que a dependência temporal, se existe, está

implícita na série.

8. Médias Móveis

Médias móveis de Ordem 1-MA (1)

• Considerando:

𝑦𝑡 = μ + ϵ𝑡 + θϵ𝑡−1

• Em que ϵ𝑡 é um ruído branco.

• Uma vez que 𝑦𝑡 depende do erro contemporâneo, ϵ𝑡, e

do erro imediatamente passado, ϵ𝑡−1, então o processo é

chamado médias móveis de ordem 1 e denotado como

MA (1). Se o processo dependesse de ϵ𝑡−2, então seria

chamado de MA (2), e assim por diante.

• O termo móvel aqui se aplica porque o cálculo desliza um

período à chegada de nova informação.

• Esse procedimento é feito para identificar algum tipo de

tendência, expurgando-se a influência de sazonalidade.

• O processo de média móvel estará sempre associado

aos erros do modelo.

• Os pesos poderão ser diferentes conforme a importância

das observações passadas, em contraposição aos pesos

idênticos que costumeiramente se associam aos valores

usados para calcular a média dos últimos 12 meses.

• Para verificar se o processo 𝑦𝑡 satisfaz a definição de

estacionaridade, é preciso calcular a esperança, a

variância e as autocovariâncias do processo:

• A esperança é finita para cada t;

• A variância é finita;

• A autocovariância não depende do t; e

• As outras autocovariâncias são nulas.

• Como a esperança e as autocovariâncias não são em

função do tempo, o processo é fracamente estacionário,

independete do valor de θ.

• A condição dada pela equação abaixo também é

satisfeita, gerando um processo ergódico:

• A autocorrelação só existe para a primeira defasagem e é

dada por:

Três processos simulados de médias móveis de ordem:

Processos MA(1) com vários valores para θ.

Médias Móveis de Ordem q – MA (q)

• Processo de médias móveis para q defasagens:

• Observe se esse processo satisfaz a primeira condição

de estacionaridade:

• Para j > q, não haverá ϵ’s em datas comuns. Logo a

esperança será nula:

9. Processos Autorregressivos

Processo Autorregressivo de Ordem 1 – AR (1)

• Considerando o seguinte processo estocástico:

𝑦𝑡 = c +ф𝑦𝑡−1+ ϵ𝑡

• Em que ϵ𝑡 é um ruído branco.

• O processo assim definido é chamado autoregressivo de

ordem 1 e denotado como AR (1).

• Esse processo é estável e tem variância finita, admitindo

q ф < 1 ?

• Reescrevendo o processo autorregressivo de

ordem 1, pode-se encontrar um MA (∞):

• Em que:

• Pode-se calcular então:

• A autocovariância de defasagem j é:

• Como a média e as autocovariâncias não são funções do

tempo, o processo é fracamente estacionário,

independente do valor de ф.

• A figura a seguir apresenta 4 processos autorregressivos:

• Quanto às figuras apresentadas, dentre as duas

superiores, o processo em que ф = 0,8 parece mais

resistente à mudanças que o processo em que ф = 0,5.

• Enquanto que comparando as duas figuras à esquerda, o

processo inferior parece mais volátil, embora ambos

tenham a mesma variância. Essa volatilidade se reflete

nos valores de autocovariância.

• Quando ф = 0, é difícil definir um padrão para os dados.

Trata-se de um ruído branco.

Processo Autorregressivo de Ordem 2 – AR (2) • Este estudo é importante porque geram intuição para

processos de ordem maior.

• Seja o processo regressivo:

• Calcula-se a esperança não condicional de 𝑌𝑡:

• Por definição, encontramos:

• Dividindo a equação anterior por ϒ0 temos a função de

autocovariância:

Processo Autorregressivo de Ordem p – AR (p)

• É definido como:

• Multiplicando por (𝑦𝑡- 1 – μ) e tomando a esperança:

• Temos:

Processos Autorregressivos de Médias

Móveis – ARMA (p, q)

• Este representa a combinação dos processos vistos

anteriormente.

• Um ARMA (p, q) é escrito como:

• Tomando a esperança incondicional da equação anterior:

• Subtraindo a segunda equação da primeira e aplicando a

definição de e (yt), resulta:

• Em que:

• Reescrevendo o processo ARMA em termos dos desvios

em relação à média não condicional e multiplicando por

(𝑦𝑡−ℎ - μ):

• Tomando a esperança para h > q, pode-se encontrar um

processo autorregressivo de ordem p, pois E [ϵ𝑡−𝑗(y𝑡−ℎ -

μ)] = 0:

• Se h =< q, a função de autocovariância torna-se bem

complicada, pois há correlação entre ϵ𝑡−𝑗 e (y𝑡−ℎ - μ).

Definição:

• Considere o modelo α (L) y𝑡 = ϵ𝑡, em que α (L) = (1 - α1L -

α2L2 - ... - α𝑝L

𝑝). O processo é dito estável se

α (Z) ≠ 0.

para todo número complexo, z, satisfazendo 𝑍 ≤ 1.

• A definição é bastante difícil, porém extremamente

precisa.

11. Função Geradora de Autocovariância

• Existe uma maneira fácil de encontrar as

autocovariâncias quando elas são absolutamente

somáveis. O truque é usar a função geradora de

autocovariância definida por:

em que z é um escalar complexo.

• As autocovariâncias são representadas pelos coeficientes

de zj , em que j indica a ordem de defasagem da

autocovariância.

12. Filtros • É a ideia de executar algum ajuste prévio na série antes de

trabalhar com ela, significando passar um filtro na série. Por exemplo, deseja-se diferenciá-la de modo a estacionarizá-la.

• Considerando o modelo:

𝑦𝑡 = (1 + 𝜃𝐿) 𝜖𝑡

• Generalizando, é cabível passar um filtro h (L) na série y, tal que:

𝑥𝑡 = h (L) 𝑦𝑡

• Em que:

• Então é possível ver que:

13. Invertibilidade • Similar à ideia de convergência das equações a

diferenças, os processos de médias móveis devem ser

invertíveis. Isso significa escrever um MA (q) como um AR

(∞) se certas condições forem satisfeitas. Seja um

processo MA (1):

• Se 𝜃 < 1, pode-se reescrever esse processo da seguinte

forma:

• Haverá invertibilidade se as raízes caracterísitcas da

polinomial (1 + 𝜃1L + 𝜃1𝐿2 + ... + 𝜃𝑞𝐿

𝑞) estiverem fora do

círculo unitário.

• Sem invertibilidade a série não poderia ser estimada

recursivamente, usando observações passadas.

• A invertibilidade é condição necessária para haver

unicidade de dados.

• Considerando que no modelo anterior 𝜃 > 1, podemos

inverter a equação:

• Sendo assim, o denominador da fração é do tipo que

permite inversão para uma progressão geométrica, pois

𝜃−1 < 1, logo:

• 𝑦𝑡depende das observações futuras. Logo, o modelo não

pode ser estimado se as raízes do processo MA

estiverem dentro do círculo unitário.

• Agora considerando inicialmente um processo 𝑦𝑡𝑎 = (1 +

𝜃𝐿) 𝜖𝑡. Esse processo possui:

• Considere agora o processo 𝑦𝑡𝑏 = (1 +𝜃−1𝐿) 𝜖𝑡, 𝜖𝑡 ~ RB

(0, 𝜃2σ²). Esse processo possui:

• A Conclusão é que as séries 𝑦𝑎 e 𝑦𝑏 são indistinguíveis.

• Equivalentemente, em termos da função geradora de

autocovariância, tem-se

• Desde que se defina

σ2 = σ2

𝜃2

• Para evitar problemas, impõem-se as raízes sempre fora

do círculo unitário.

• Bueno, Rodrigo de Losso da Silveira. Econometria de Séries

Temporais. Fundação Getúlio Vargas – CFC. CENGAGE

Learning. 2008. Capítulos 1 ao 2. Pág.: 1 a 34.

Outras Referências:

• Ehlers, R.S. (2009) Análise de Séries Temporais, disponível no

link: http://www.icmc.usp.br/ ehlers/stemp/stemp.pdf.

Referência Bibliográfica