Econometria IVModelos Lineares de Séries Temporais
Fernando Chague
2016
Estacionariedade
Estacionariedade
Inferência estatística em séries temporais requer alguma forma deestacionariedade dos dados
I Intuição: se a média de uma variável em cada subperíodo for igual,podemos almejar uma estimativa precisa com a amostra inteira
Muitas vezes, podemos aplicar uma transformação conveniente nosdados
I Preços não são estacionários, mas retornos são estacionários
Definição: A série temporal {rt} é fracamente estacionária se1. E (rt) = µ para todo t; e2. E (rt −µ)(rt−j −µ) = γj < ∞.
Autocorrelação
A correlação entre duas variáveis é dada por:
ρx ,y =cov (x ,y)√
var (x) ,var (y)
Um estimador da correlação entre duas variáveis é:
ρ̂x ,y =∑
Tt=1 (xt −x)(yt −y)√
∑Tt=1 (xt −x)2
∑Tt=1 (yt −y)2
onde x = ∑Tt=1 xt/T e y = ∑
Tt=1 yt/T
Autocorrelação
De maneira análoga, a autocorrelação é definida por:
ρk =Cov (xt ,xt−k)√
var (xt)var (xt−k)=
Cov (xt ,xt−k)
var (xt)≡ γk
γ0
onde var (xt−k) = var (xt) e Cov (xt ,xt−k) = γk devido aestacionariedade fracaE um estimador natural é:
ρ̂k =∑
Tt=k+1 (xt −x)(xt−k −x)
∑Tt=1 (xt −x)2 , 0≤ k < T −1
Autocorrelação
ρ̂k =∑
Tt=k+1 (xt −x)(xt−k −x)
∑Tt=1 (xt −x)2 , 0≤ k < T −1
Opção 1: Se {xt} é uma sequência de variáveis aleatórias iid, comE(x2
t)< ∞, então
ρ̂k ∼N
(0, 1T
)Opção 2: Se {xt} é fracamente estacionária tal quext = µ + ∑
qi=0 ψiat−i , ψ0 = 1 e {aj} é uma sequência de variáveis
aleatórias iid com média zero então para k > q
ρ̂k ∼N
(0, 1+2∑
qi=1 ρ2
iT
)
AutocorrelaçãoCom base na distribuição assintótica de ρ̂k , podemos testar para cadak:
H0 : ρk = 0 vs Ha : ρk 6= 0
com base na distribuição
t =ρ̂k√(
1+2∑qi=1 ρ̂2
i)/T∼N (0,1)
Teste de autocorrelações conjunto até ordem m (Ljung-Box,1978):
H0 : ρ1 = ... = ρk = 0 vs Ha : ρi 6= 0 para algum i ∈ {1, ...,m}
com base na distribuição
Q (m) = T (T +2)m
∑l=1
ρ̂2l
T − l ∼ χ2m
Séries de Tempo Lineares
Ruído Branco (White Noise): A série temporal rt é um ruído branco se{rt} é uma sequência iid
(µ,σ2) com µ < ∞ e σ2 < ∞. Seja {εt} uma
sequência iid com εt ∼ (0,1), podemos representar rt por:
rt = µ + σεt
Todas FACs são iguais a zero
Ruído Branco Gaussiano (Gaussian White Noise): A série temporalrt é um ruído branco gaussiano se εt ∼N (0,1)
Séries de Tempo Lineares
Série de Tempo Linear: Uma séria temporal rt é dita linear se pode serescrita como:
rt = µ +∞
∑i=0
ψiεt−i
onde {εt} é sequência iid com εt ∼(0,σ2
ε
)e ψ0 = 1
Observações:1. A dinâmica temporal é dada pelos coeficientes ψ
2. Se rt é fracamente estacionário, temos que:
E (rt) = µ e Var (rt) = σ2ε
∞
∑i=0
ψ2i
3. Como rt é fracamente estacionário, ∑∞i=0 ψ2
i < ∞ e portanto ψ2i → 0
Séries de Tempo Lineares4. Portanto, choques longínquos tem pouco impacto:
γ` = Cov (rt , rt−`) = E[(
∞
∑i=0
ψi εt−i
)(∞
∑j=0
ψi εt−`−i
)]
= E[
∞
∑i ,j=0
ψi ψjεt−i εt−`−j
]
=∞
∑j=0
ψj+`ψjE[ε
2t−`−j
]= σ
2ε
∞
∑j=0
ψj+`ψj
5. A função de autocorrelação será:
ρ` =γ`
γ0=
∑∞i=0 ψi ψi+`
1+ ∑∞i=0 ψ2
i
para `≥ 0
Modelos Autoregressivos
Modelo Autoregressivo de Ordem 1 - AR(1): Uma série temporal rt éuma série AR(1) se:
rt = φ0 + φ1rt−1 + εt
onde {εt} é sequência iid com εt ∼(0,σ2
ε
)Observações
1. Momentos condicionais. E (rt |rt−1) = φ0 + φ1rt−1 e Var (rt |rt−1) = σ2ε
Modelos Autoregressivos
2. Média não-condicional. Note que E (rt) = φ0 + φ1E (rt−1). Se rt éfracamente estacionário, temos que E (rt) = E (rt−1) = µe:
E (rt) = µ =φ0
1−φ1
3. (Linearidade) Substitutindo φ0 = (1−φ1) µ temos que
rt −µ = φ1 (rt−1−µ) + εt e portanto:
rt −µ = εt + φ1εt−1 + φ21 εt−2 + ...
rt = µ +∞
∑i=0
φi1εt−i
4. (Estacionariedade) Para garantir estacionariedade fraca, precisamoster que −1< φ1 < 1
Modelos Autoregressivos
5. Variância não-condicional. Como E (rt−1εt) = 0 temos queVar (rt) =φ2
1 Var (rt−1) + σ2ε . Como rt é estacionário:
Var (rt) =σ2
ε
1−φ21
com φ21 < 1
Modelos Autoregressivos
6. Covariâncias. Multiplicando rt −µ = φ1 (rt−1−µ) + εt por εt temos:
E [(rt −µ)εt ] = φ1E [(rt−1−µ)εt ] + E[ε
2t]
= 0+ σ2ε
Multiplicando rt −µ = φ1 (rt−1−µ) + εt por rt−`−µ temos:
γ` = E [(rt −µ)(rt−`−µ)] = φ1E [(rt−1−µ)(rt−`−µ)] + E [εt (rt−`−µ)]
= φ1γ`−1
Generalizando, temos:
γ` =
{σ2
ε
1−φ21
φ1γ`−1
se` = 0se` > 0
Modelos Autoregressivos
7. Correlações (FACs). A Função de Autocorrelações é dada por
ρ` =γ`
γ0= φ1ρ`−1
para `≥ 0.Como ρ0 = 1, temos ρ` = φ `1. Ou seja, ρ` decae
exponencialmente em `.
Modelos AutoregressivosModelo Autoregressivo de Ordem p - AR(p): Uma séria temporal rt éuma série AR(p) se:
rt = φ0 + φ1rt−1 + ...+ φprt−p + εt
onde {εt} é sequência iid com εt ∼(0,σ2
ε
)Observações1. Média não-condicional.
E (rt) = µ =φ0
1−φ1− ...φp
2. (Estacionariedade) A série será estacionária se as raízes do polinômioforem maiores em módulo do que 1:
1−φ1x −φ2x2− ...−φpxp = 0
Modelos Autoregressivos
3. Covariâncias. As auto-covariâncias de um processo AR(p) são iguais a:
γ` =
{φ1γ1 + φ2γ2 + ...+ φpγp + σ2
ε
φ1γ`−1 + φ2γ`−2 + ...+ φpγ`−p
se` = 0se` > 0
Note que como γ` = γ−`, temos um sistema de p +1 equações em p +1 γ’sque pode ser resolvido para obter expressões explícitas4. Correlações (FACs). A Função de Autocorrelações é dada por
ρ` = φ1ρ`−1 + φ2ρ`−2 + ...+ φpρ`−p
para `≥ 1.
Modelos Autoregressivos
Como estimar modelo AR(P)
1. Especificação: definir p
2. Estimar parâmetros do modelo: OLS
3. Verificar resíduos: ε̂t deve ser um ruído branco
Modelos Autoregressivos1. Especificação: definir p
Função de Autocorrelação Parcial (PACF): É definida pelos coeficientes{φ̂1,1, φ̂2,2, φ̂3,3, φ̂4,4...
}estimados de acordo com as seguintes equações:
xt = φ0,1 + φ1,1xt−1 + e1,t
xt = φ0,2 + φ1,2xt−1 + φ2,2xt−2 + e2,t
xt = φ0,3 + φ1,3xt−1 + φ2,3xt−2 + φ3,3xt−3 + e3,t
xt = φ0,4 + φ1,4xt−1 + φ2,4xt−2 + φ3,4xt−3 + φ4,4xt−4 + e4,t...
Observações:
1. φ̂p,p → φp para T grande2. φ̂`,`→ 0 para T grande e ` > p3. A variância assintótica de φ̂`,` é 1/T para ` > p
Modelos Autoregressivos1. Especificação: definir p
Critérios de Informação: Seleciona a defasagem de acordo com aaderência do modelo aos dados, medida por alguma das funções:
AIC (`) =− 2T ×LLF (`) +
2T × (# parameters)
BIC (`) =− 2T ×LLF (`) +
2T × ln(# parameters)
onde LLF (`) é a função de log-verossimilhança do modelo AR (`) avaliadano ponto máximo
Observações:1. Como LLF (`) é multiplicado por -1, escolhe-se modelo com menorAIC/BIC2. BIC pune mais (desconta menos) modelos com mais parâmetros
Modelos Autoregressivos
Modelo de Média Móvel de Ordem 1: uma série temporal rt é umasérie MA(1) se:
rt = µ + εt + θ1εt−1
onde {εt} é sequência iid com εt ∼(0,σ2
ε
)Observações1. Média não-condicional. E (rt) = µ
2. Variância não-condicional.Var (rt) = σ2ε + θ 2
1 σ2ε =
(1+ θ 2
1)
σ2ε
3. Autocorrelação.A Função de Autocorrelações é dada por
ρ0 = 1, ρ1 =θ1(
1+ θ 21) e ρ` = 0, para` > 1
Modelos Autoregressivos
Modelo de Média Móvel de Ordem q: uma série temporal rt é umasérie MA(q) se:
rt = µ + εt + θ1εt−1 + θ2εt−2 + ...+ θqεt−q
onde {εt} é sequência iid com εt ∼(0,σ2
ε
)Observações
1. Média não-condicional.E (rt) = µ
2. Variância não-condicional.Var (rt) =(1+ θ 2
1 + ...+ θ 2q)
σ2ε
3. Autocorrelação.A Função de Autocorrelações é dada por
ρ0 = 1, ρ` =θ` + θ`+1θ1 + θ`+2θ2 + ...+ θqθq−1(
1+ θ 21 + ...+ θ 2
q) , e ρ` = 0, para` > q
Modelos Autoregressivos
Como estimar modelo MA(q)
1. Especificação: definir q (ACF ou AIC/BIC)
2. Estimar parâmetros do modelo: MLE
3. Verificar resíduos: ε̂t deve seguir distribuição especificada
Modelos Autoregressivos
Modelo ARMA(1,1): uma série temporal rt é uma série ARMA(1,1) se:
rt = φ0 + φ1rt−1 + εt + θ1εt−1
onde {εt} é sequência iid com εt ∼(0,σ2
ε
)Observações
1. Média não-condicional. E (rt) = µ = φ01−φ1
2. Variância não-condicional.Var (rt) = γ0 =(1+2φ1θ1+θ2
1 )σ2ε
1−φ13. Autocorrelação.A Função de Autocorrelações é dada por
ρ0 = 1, ρ1 = φ1 +θ1σ2
ε
γ0e ρ` = φ1ρ`−1 para` > 1
Modelos Autoregressivos
Modelo ARMA(p,q): uma série temporal rt é uma série ARMA(p,q) se:
rt = φ0 +p
∑i=1
φi rt−i + εt +q
∑i=1
θiεt−i
onde {εt} é sequência iid com εt ∼(0,σ2
ε
)Observações
1. Média não-condicional.E (rt) = φ0/(1−φ1− ...−φp)2. Autocovariâncias.Para j > q temos
γj = φ1γj−1 + φ2γj−2 + · · ·+ φpγj−p, para j = q +1,q +2, ...
Modelos Não Estacionários
Modelos Não Estacionários
Passeio Aleatório: uma série temporal pt é um passeio aleatório se:
pt = pt−1 + εt
onde p0 é o valor inicial e {εt} é um ruído branco (sequência iid comεt ∼
(0,σ2
ε
))
Observações
1. Se εt+1 segue uma distribuição simétrica, dado pt , a probabilidade dept+1 subir é 50% e de cair 50%2. (Martingal) A melhor previsão para o futuro é o valor observado parahoje Et [pt+1] = pt3. Em períodos curtos, o log do preço de uma ação pode ser modelado pormeio de um passeio aleatório
Modelos Não Estacionários
Observações (cont.):
4. Não estacionário:
Var (pt) = Var (pt−1 + εt) = Var (pt−1) + σ2ε + Cov (εt ,pt−1)
5. Podemos representar o Passeio Aleatório como:
pt = εt + εt−1 + εt−2 + ...
6. (Memória persistente) Note que agora, o impacto de choquespassados não decai com o tempo7. O erro da projeção aumenta com o horizonte. Como Et [Pt+`] = pt ,
Pt+`−Et [Pt+`] = εt+` + εt−`−1 + εt+1
e a variância do erro é igual a `×σ2ε e aumenta com `.
Modelos Não EstacionáriosPasseio Aleatório com Drift: uma série temporal pt é um passeioaleatório com drift se
pt = µ + pt−1 + εt
onde p0 é o valor inicial, µ é uma constante e {εt} é um ruído branco(sequência iid com εt ∼
(0,σ2
ε
))
Observações
1. Substitutindo recursivamente:
p1 = µ + p0 + ε1
p2 = µ + p1 + ε2 = 2µ + p0 + ε2 + ε1...
pt = µt + p0 + εt + εt−1 + · · ·+ ε1
2. Tendência determinista µt (time-trend) e tendência estocástica(∑εt−i = εt + εt−1 + · · ·+ ε1)3. A tend. determinista domina, pois o desvio padrão condicional é
√tσ2
ε
Modelos Não Estacionários
Processo com Tendência Estacionária: uma série temporal pt é umprocesso com tendência estacionária se
pt = δ0 + δ1t + xt
onde xt é um processo estacionário (e.g. um processo AR(p) estacionário).
Observações1. pt cresce a linearmente à taxa δ1 e pode se assemelhar a um passeioaleatório com drift.2. Assumindo que xt tem média zero, temos que por um ladoE [pt ] = δ0 + δ1t e por outro Var [pt ] = Var [xt ], finito e invariante3. Podemos remover a não-estacionariedade na média regredindo pt em t.
Modelos Não Estacionários
Processo ARIMA(p,1,q): pt é um processo autoregressivo integradocom média móvel se rt = ∆pt = pt −pt−1 segue um processo estacionárioARMA(p,q)
Observações1. Podemos pensar pt como sendo o log do preço, pt = ln (Pt) de umaação e portanto a diferença rt = ∆pt = ln (Pt/Pt−1) o log-retorno2. De maneira mais geral, podemos definir um processo ARIMA(p,d,q),onde d indica o número de diferenciações necessárias para atingirestacionariedade3. Considere d = 2, neste caso teremos:
∆2pt = ∆pt −∆pt−1 = pt −2pt−1 + pt−2
Modelos Não Estacionários
Como detectar não estacionariedade?
1. Visualmente (graficamente)
2. Teoria econômica
3. Testando a presença de raíz unitária
Modelos Não Estacionários
Testes de raíz unitáriaConsidere a seguinte especificação:
pt = φ1pt−1 + εt
Queremos testar se φ1 = 1, ou seja, se pt é uma passeio aleatório semdrift.Poderíamos testar se α = φ1−1 é igual a zero utilizando um teste t:
∆pt = (φ1−1)pt−1 + εt = αpt−1 + εt
No entanto, nesse caso a estatística t está incorreta e precisa serajustada
Modelos Não Estacionários
Teste Dickey Fuller de raíz unitária:
H0 : α = 0 vs Ha : α < 0
DF ≡ t− ratio =α̂
std (α̂)
Dependendo da especificação utilizada e do tamanho da amostra, oajuste necessário na estatística t será diferente. Os valores podem serobtidos por meio de simulações de Monte CarloTabelas existem para as seguintes especificações:
τ : ∆pt = αpt−1 + εt
τµ : ∆pt = µ + αpt−1 + εt
ττ : ∆pt = µ + δ t + αpt−1 + εt
Modelos Não EstacionáriosTeste Augmented Dickey Fuller (ADF) de raíz unitária:
H0 : β = 0 vs Ha : β < 0
ADF =β̂
std(
β̂
)Amplia a possibilidade de especificações ao incluir o componenteautoregressivo AR(P):
τ : ∆pt = βpt−1 +p−1
∑i=1
λi ∆pt−i + εt
τµ : ∆pt = µ + βpt−1 +p−1
∑i=1
λi ∆pt−i + εt
ττ : ∆pt = µ + δ t + βpt−1 +p−1
∑i=1
λi ∆pt−i + εt
Top Related