CAP´ITULO 6 Modelos ARMA para la Componente Aleatoriandgirald/Archivos... · CAP´ITULO 6 Modelos...
Embed Size (px)
Transcript of CAP´ITULO 6 Modelos ARMA para la Componente Aleatoriandgirald/Archivos... · CAP´ITULO 6 Modelos...
-
CAPÍTULO 6
Modelos ARMA para la Componente Aleatoria
6.1. Introducción
En los modelos de descomposición Yt = Tt + St + εt, t = 1, 2, . . . se estima ε̂t y se
determina si es o nó ruido blanco mediante las pruebas Ljung-Box y Durbin-Watson. En
caso de encontrar que ε̂t no es ruido blanco, el siguiente paso es modelar esta componente
mediante tres posibles modelos
1. Medias Móviles de orden q, MA(q).
2. Autoregresivos de orden q, AR(p).
3. Medias Móviles Autoregresivos,ARMA(p, q).
“Los tres modelos varı́an en su capacidad de capturar distintos tipos de
comportamiento de autoregresión.” “Comenzaremos dando las caracterı́sticas
de las funciones de autocorrelación y cantidadades relacionadads con cada
modelos, estás no tiene nada que ver con datos ni estimación pero son fun-
damentales para desarrollar una comprensión básica de las propiedades de
los modelos necesarios para llevar a cabo pronósticos inteligentes.” Diebold
[1999, pág. 129]
89
-
90
6.2. Procesos de Medias Móviles de orden q
Definición 6.2.1 (El Operador de Rezago). Se denota por L (lag, en inglés) y es tal que
L(Yt) = Yt−1. Es decir, L opera sobre una serie rezagándola un perı́odo hacia atrás. De
igual manera L(Yt−1) = Yt−2, luego L(L(Yt)) = L2(Yt) = Yt−2 y en general L
p(Yt) =
Yt−p. Se define también L0 = I , el operador identidad.
Un polinomio de grado p en el operador L se define como el operador formado por una
combinación lineal de potencias de L
BP (L) = β0 + β1L+ β2L2 + · · ·+ βpLp, (6.1)
tal que
BP (L)(Yt) = (β0 + β1L+ β2L2 + · · ·+ βpLp)Yt,
=
p∑
j=0
βjLjYt,
=
p∑
j=0
βjYt−j ,
= β0Yt + β1Yt−1 + β2Yt−2 + · · ·+ βpYt−p.
Definición 6.2.2 (Proceso MA(q)). Se dice que una serie Yt sigue un procesoMA(q), q =
1, 2, . . . de media móvil de orden q, si se cumple que
Yt = εt + θ1εt−1 + · · ·+ θqεt−q , t ∈ Z, (6.2)
donde εt ∼ RB(0, σ2). La expresión con el operador L es, si se define el polinomio
θq(L) = 1 + θ1L+ · · ·+ θqLq, (6.3)
entonces la ecuación (6.2) se expresa
Yt = θq(L)(εt). (6.4)
6.2.1. Propiedades
1. E(Yt) = 0
2. V ar(Yt) = (1 + θ21 + · · ·+ θ2q)σ2
-
91
luego V ar(Yt) > V ar(εt), en general.
3. Cov(Yt, Yt+k) = R(k), donde
R(K) =
σ2q−k∑
j=0
θjθj+k , k < q + 1
0, k ≥ q + 1(6.5)
con θ0 = 1.
4. Un MA(q) siempre es un proceso estacionario con fac, ρ(k) = R(k)R(0)
.
Interpretación de 3. Un MA(q) es un proceso débilmente correlacionado. Se puede ver
como una alternativa a un Ruido Blanco completamente incorrelacionado.
Ejemplo 6.2.1. Sea Yt ∼MA(2) dado por
yt = εt − θ1εt−1 + θ2εt−2, εt i.i.d.∼ N (0, 9), t ∈ Z,
con
θ1 = −0.4, θ2 = 0.4, σ2 = 9,
entonces
R(0) =(1 + 0.42 + 0.42
)9 = 11.88
R(1) = 9
2−1∑
j=0
θjθj+1 = 9(θ0θ1 + θ1θ2)
= 9(− 0.4 + (−0.4)(0.4)
)= −5.04
R(2) = 9
2−2∑
j=0
θjθj+2 = 9(θ0θ2) = 9(0.4) = 3.6.
Entonces la FAC es
ρ(0) = 1, ρ(1) = − 5.0411.88
= −0.42, ρ(2) = 3.611.88
ρ(3) = ρ(4) = · · · = 0
-
92
0 1 2 3 4
−0.4
−0.2
0.00.2
0.40.6
0.81.0
True ACF
Lag
True A
CF
Figura 6.1: Función de Autocorrelación.
Ejercicio 6.2.1. Encuentre la FAC de
1. Yt = εt − 0.5εt−1 − 0.5εt−2.
2. Yt = εt + 0.6εt−1 − 0.3εt−2 − 0.1εt−3.
Conclusión De acuerdo con (6.5), si la fac muestral de una serie Yt termina abruptamente
puede tratarse de unMA(q). Por ejemplo, en la siguiente gráfica 6.2 serı́a factible un modelo
MA(3).
0 5 10 15
0.0
0.4
0.8
Lag
ACF
Series MA.3
Figura 6.2: FAC muestral de un MA(3).
Definición 6.2.3 (Función de Autocorrelación Parcial (facp)). Suponga que (Yt, t ∈ Z)es estacionaria. La facp es una función de k, α(k), k = 1, 2, . . . definida por
1. α(1) = ρ(1)
2. α(k) = Corr(ε1, εk) donde
ε1 = Y1 − E(Y1|Y2, . . . , Yk−1)εk = Yk −E(Yk|Y2, . . . , Yk−1), k = 2, . . .
-
93
Y la facp muestral se define por α̂(k)
1. α̂(1) = ρ̂(1)
2. α̂(2) : se regresa Yt sobre Yt−1 y Yt−2 tal que Yt = φ21Yt−1 + φ22Yt−2 + εt entonces
α̂(2) = φ̂22
3. α̂(k) : se regresa Yt sobre Yt−1, . . . , Yt−k tal que Yt = φk1Yt−1 + · · ·+φkkYt−k + εtentonces α̂(k) = φ̂kk
La facp de un proceso Yt ∼ MA(q) se puede encontrar si se asume la condición deinvertibilidad para un MA(q)
6.2.2. Condición de Invertibilidad del Proceso MA(q)
Definición 6.2.4. Dado un proceso MA(q), Yt = θq(L)(εt) donde θq(L) = 1+θ1L+θ2L2+
· · ·+ θqLq, entonces considerando el polinomio en z ∈ C, θq(z) = 1 + θ1z + · · ·+ θqzq ysus q raı́ces (z1, z2, . . . , zq) ∈ C, es decir, valores z ∈ C tales que θq(z) = 0, se dice que elproceso Yt es invertible si se cumple
|zj| > 1, ∀j = 1, . . . , q, (6.6)
o también, si θq(z) 6= 0, ∀z, |z| ≤ 1. Note que (6.6) es equivalente a
1
|zj|< 1, ∀j = 1, . . . , q
es decir, los inversos de las raı́ces deben caer dentro del cı́rculo unitario complejo.
Ejemplo 6.2.2. Sea Yt ∼MA(a) tal que
Yt = εt − 0.4εt−1 + 0.4εt−2, (6.7)
veamos si Yt es invertible. Hallamos las raı́ces del polinomio θq(z)
θ2(z) = 1− 0.4z + 0.4z2 = 0,
z =0.4±
√0.42 − 4(0.4)(1)2(0.4)
=1
2± 1
2
10
4
√4
10
√4
10− 4 = 1
2± 1
2
√10
2
√−36
10
=1
2± 1
2
√10
2
√36
10i =
1
2± 3
2i
-
94
por tanto
|z| =
√(1
2
)2+
(±3
2
)2=
√1
4+ 9 > 1,
luego Yt es invertible.
6.2.3. Función facp de un Proceso MA(q) invertible
Suponga un proceso Yt ∼MA(q) invertible,
Yt = θq(L)(εt). (6.8)
Considere θq(z) = 1+ θ1z+ · · ·+ θqzq entonces θq(z) 6= 0, |z| ≤ 1, luego la función 1θq(z)tiene desarrollo es serie de Taylor alrededor de z = 0, dado por
1
θq(z)= 1 + ψ1z + ψ2z
2 + . . . =
∞∑
j=0
ψjzj, ψ0 = 1, (6.9)
con∑∞
j=0 ψ2
-
95
0 5 10 15 20
0.0
0.4
0.8
True ACF
Lag
True
AC
F
(a) FAC
5 10 15 20
−0.
20.
20.
61.
0
True PACF
Lag
True
PA
CF
(b) FACP
Figura 6.3: FAC y FACP de un MA(3).
6.2.4. Implementación en R
En R para identificar se usan las funciones acf y pacf y para estimar una de las funciones
usadas es arma de la librerı́a tseries.
Ejemplo 6.2.3. library(forecast,tseries)
n = 300
theta = c(-1,-0.4,-0.4)
(Mod(polyroot(theta)))
y = arima.sim(list(order=c(0,0,2), ma=theta[2:3]), n=n, sd=sqrt(2.3))
layout(1:3)
ts.plot(y)
acf(y,30)
pacf(y,30)
# Estimación: Función arma librerı́a tseries
modelo.y = arma(x=y, order=c(0,2))
summary(modelo.y)
-
96
0 5 10 15 20 25 30
0.0
0.6
Lag
AC
F
Series y
(a) FAC
5 10 15 20
−0.1
0.2
0.4
Lag
Pa
rtia
l A
CF
Series y
(b) FACP
Figura 6.4: FAC y FACP del Ejemplo.
pred.y = predict(modelo.y, n.ahead=2)
plot(seq(1,9,1), c(tail(y), pred.y$pred), type=’b’)
points(seq(7,9,1), pred.y$pred, type=’b’, col=’red’)
6.3. Procesos Autoregresivos de Orden p, AR(p)
Definición 6.3.1 (Proceso AR(p)). Se dice que Yn, n ∈ Z sigue un proceso AR(p) si
Yn = ϕ1Yn−1 + ϕ2Yn−2 + · · ·+ ϕpYn−p + εn, (6.12)
donde εn ∼ RB(0, σ2). Usando el operador de rezago L se puede escribir (6.12) como
ϕp(L)(Yn) = εn, (6.13)
con ϕp(z) = 1− ϕ1z + ϕ2z2 + · · ·+ ϕpzp, z ∈ C, el polinomio autorregresivo.
Condición Suficiente para que un AR(p) sea Estacionario
La condición suficiente para que Yt ∼ AR(p) sea estacionario en covarianza es que las praı́ces del la ecuación ϕp(z) = 0, z1, z2, . . . , zp cumplan
|zi| > 1 (6.14)
donde ϕp(z) es el polinomio caracterı́stico del AR(p) definido por
-
97
ϕp(z) = 1− ϕ1z − ϕ2z2 − · · · − ϕpzp, z ∈ C, (6.15)
Nótese que si zj = aj ± ibj entonces |zj| =√a2j + b
2j . La condición (6.14) no es, sin
embargo, necesaria. En palabras, la condición (6.14) se describe como “ para que un proceso
autoregresivo de orden p sea estacionario en covarianza, es suficiente que las raı́ces del
polinomio autorregresivo estén por fuera del cı́rculo unitario”. El cı́rculo unitario aparece en
la Figura 6.5. En esta figura se observa la posición de la raı́z zj y su conjugado z̄j .
�
�
� ��
��
�������
�������
Figura 6.5: Cı́rculo Unitario
6.3.1. Algunas Propiedades de los Procesos AR(p) Estacionarios
Proposición 6.3.1. Para un proceso Yt ∼ AR(p), definido en (6.12), se tieneE(Yt) = 0.
Demostración. Si Yt es estacionario en covarianza entonces E(Yt) = µ. Además,
E(Yt) = ϕ1E(Yt−1) + ϕ2E(Yt−2) + · · ·+ ϕpE(Yt−p) + 0,
pero todas las esperanzas son µ luego
µ = ϕ1µ+ ϕ2µ+ · · ·+ ϕpµ.
Si µ 6= 0 entonces
1 = ϕ1 + · · ·+ ϕp
por tanto
ϕp(1) = 0
-
98
lo cual es una contradicción (→←), ya que ∀ z ∈ C, |z| ≤ 1 entonces
ϕp(z) 6= 0.
luego debe tenerse que µ = 0, es decir, el proceso definido en (6.12) es de media cero.
Un proceso Yt ∼ AR(p) con E(Yt) = µ 6= 0 se define como
ϕp(L)(Yt) = ϕ0 + εt, (6.16)
donde
ϕ0 = ϕp(L)(µ)
= (1− ϕ1 − ϕ2 − · · · − ϕp)µ.
Nótese que también se puede escribirYt = (1−ϕ1−· · ·−ϕp)µ+ϕ1Yt−1+· · ·+ϕpYt−p+εt,de donde Yt − µ = ϕ1(Yt−1 − µ) + · · ·+ ϕp(Yt−p − µ) + εt. Es decir, el proceso (Yt − µ)es AR(p) de media cero.
La Función de Autocovarianza de los Procesos AR(p)
La función de autocovarianza de un proceso Yt ∼ AR(p) estacionario en covarianza, R(k)se puede calcular resolviendo una ecuación recursiva lineal denominada, en plural, las
ecuaciones de Yule–Walker.
Proposición 6.3.2. Suponga un proceso AR(p), Yn =∑p
j=1 ϕjYn−j + εt, que satisface la
condición de estacionario en covarianza ((6.14)). Su función fac R(k) satisface la ecuación
recursiva
R(k) =
p∑
j=1
ϕjR(k− j), k = 1, 2, . . . . (6.17)
denominada, en plural, Ecuaciones de Yule–Walker.
Demostración. Colocando µ = E(Yn), como Yn =∑p
j=1 ϕjYn−j + εn, al tomar esperanza
en ambos miembros se obtiene µ =∑p
j=1 ϕjµ+ 0. Restando las expresiones anteriores se
obtieneYn−µ =∑p
j=1 ϕj(Yn−j −µ)+εn. Multiplicando ambos miembros de la identidadanterior por Yn−k − µ, con k ≤ n, y tomando valor esperado E(.) se obtiene
R(k) = E((Yn − µ)(Yn−k − µ))
-
99
=
p∑
j=1
ϕE((Yn−j − µ)(Yn−k − µ)) + E(εn(Yn−k − µ))
=
p∑
j=1
ϕjR(k − j).
En el resultado anterior se tiene E(εn(Yn−k − µ)) = 0 porque, a partir de la definición delprocesoYn en (6.12),Yn−k depende de εs con s ≤ n−k, que son variables incorrelacionadascon εn.
La Varianza de los Procesos AR(p)
Si Yt ∼ AR(p) de media cero, estacionario en covarianza entonces ϕp(L)(Yn) = εn, paraεn ∼ RB(0, σ2). Además, se cumple que ∀z, |z| ≤ 1 ϕp(z) 6= 0 entonces el cociente 1ϕp(z)se puede desarrollar en serie de potencias de z, y colocar
1
ϕp(z)=
∞∑
j=0
ψjzj,
para ciertos coeficientes (ψj, j = 0, 1, . . .), con ψ0 = 1. Por tanto, se puede colocar
Yn =1
ϕp(L)(εn) = εn + ψ1εn−1 + ψ2εn−2 + . . . . (6.18)
Tomando varianza a ambos miembros de (6.18), se obtiene V ar(Yn) = σ2∑∞
j=0 ψj .
Estimación de la FAC de un AR(p)
ρ(k) = Corr(Yt, Yt+k), k = 1, 2, . . . , p, p+ 1, . . . (6.19)
cumple que:
1. Se tiene un sistema lineal p× p que cumple
A =
1 ρ(1) · · · ρ(p− 1)ρ(1) ρ(2) · · · ρ(p− 2)ρ(2) ρ(3) · · · ρ(p− 3)
......
...
ρ(p− 1) ρ(p− 2) · · · 1
, ϕ =
ϕ1
ϕ2...
ϕp
, ρ =
ρ(1)
ρ(2)...
ρ(p)
,
-
100
entonces
Aϕ = ρ. (6.20)
Luego dada ρ̂(1), . . . , ρ̂(p) se puede resolver (6.20) tomando ϕ̂ = Â−1ρ̂, los esti-
madores de Yule-Walker de ϕ
2.
ρ(k) = ϕ1ρ(k − 1) + ϕ2ρ(k− 2) + · · ·+ ϕpρ(k− p), k = p, p+ 1, . . . (6.21)
Entoces (6.21) forma una ecuación en diferencias finitas con condiciones iniciales
ρ(1), . . . , ρ(p), para ρ(k), k ≥ p+ 1, con solución
ρ(k) = s1gk1 + s2g
22 + · · ·+ spgp2, (6.22)
donde gi = 1/zi y zi es la i-ésima raı́z de la ecuación caracterı́stica
1− ϕ1z − ϕ2z2 − · · · − ϕpzp = 0 (6.23)
con |zi| > 1⇔ |gi| < 1, luego se debe cumplir que ρ(k)→ 0, k →∞
Nota 6.3.1. Si gi ≈ 1, por ejemplo gi = 1− ε se tendrá sigki = si(1− ε)k y por tantoρ(k) decae a cero más lento que si gi = ε.
0 5 10 15 20
0.0
0.4
0.8
True ACF
Lag
True
AC
F
(a) ϕ = 0.35
0 5 10 15 20
0.0
0.4
0.8
True ACF
Lag
True
AC
F
(b) ϕ = 0.88
Figura 6.6: FAC de Yt = ϕYt−1 + εt.
FACP de los Procesos AR(p)
La FACP de un procesos AR(p) es α(k) tal que α̂(k) es el coeficiente β̂k,k en la regresión
Yt = β0 + βk,1Yt−1 + · · ·+ βk,kYt−k + at, k = 2 (6.24)
-
101
pero como βk,k = 0 si k ≥ p+ 1 entoces α̂(k) = 0 si k ≥ p+ 1
2000−09−27 2001−02−20 2001−07−16
4555
65
Figura 6.7: FACP Muestral de AR(p).
Ejemplo 6.3.1. Sea Yt ∼ AR(2) con
Yt = ϕ1Yt−1 + ϕ2Yt−2 + εt, εti.i.d.∼ N (0, σ2)
Yt = 1.5Yt−1 − 0.9Yt−2 + εt,ϕ2(z) = 1− 1.5z + 0.9z2 = 0 ecuación caracterı́stica
z = 0.83± 0, 64i, |z| = 1.054 > 1
luego Yt es estacionario en covarianza, además
ρ(k) = 1− 1.5ρ(k− 1) + 0.9ρ(k− 2), k ≥ 2
ρ(0) = 1, ρ(1) =ϕ1
1− ϕ2=
1.5
1.9= 0.789.
6.3.2. Proceso AR(1)
El proceso AR(1) se ha utilizado anteriormente por ejemplo, en la prueba Durbin-Watson.
A continuación se desarrollan algunas de sus propiedades.
Si Yt es un AR(1) de media µ, entonces está definido por
Yt = ϕ0 + ϕ1Yt−1 + εt, ϕ0 = (1− ϕ1)µ, (6.25)
donde el proceso Yt es estacionario si todas la raı́ces z de la ecuación ϕ1(z) = 0 caen
fuera del circulo unitario |z| > 1. Luego el AR(1) es estacionario en covarianza si y solo si|ϕ1| < 1.
Definición 6.3.2 (Marcha Aleatoria). Se dice que Yt es una marcha aleatoria (Random
Walk) si cumple
Yt = µ+ Yt−1 + εt, (6.26)
-
102
nótese que es un AR(1) con ϕ1 = 1.
Propiedades del AR(1)
1. E(Yt) = µ =ϕ0
1− ϕ1
2. Cov(Yt, Yt+k) =σ2ϕk1
1 − ϕk1, k = 0, 1, . . .
3. ρ(k) = ϕk1, −1 < ϕ1 < 1.
Nota 6.3.2. Diebold [1999, pág. 138], Si Yt ∼ AR(1) de media cero estacionario encovarianza entonces
Yt = ϕ1Yt−1 + εt, εt ∼ R.B.(0, σ2)
es decir
(1− ϕ1L)Yt = εt
y se puede escribir como
Yt =1
1− ϕ1Lεt,
si se cumple que
f(z) =1
1− ϕ1z=
∞∑
j=0
ϕj1zj = 1 + ϕ1z + ϕ
21z
2 + . . .
por que |ϕ1 z| < 1 ya que |ϕ1| < 1 y |z| < 1. Entonces
Yt = εt + ϕ1εt−1 + ϕ21εt−2 + . . . ,
y como los εt son incorrelacionados
V ar(Yt) = σ2 + ϕ1σ
2 + ϕ21σ2 + . . .
= σ2(1 + ϕ1 + ϕ21 + . . . ) = σ
2
(1
1− ϕ1
)Varianza Incondicional
Nota 6.3.3. Si Yt ∼ AR(1) de media cero estacionario en covarianza entonces
E(Yt|Yt−1) = E(ϕ1Yt−1 + εy|Yt−1) = ϕ1Yt−1,
y si se asume que εt son independientes de yt−1, Yt−2, . . .
V ar(Yt|Yt−1) = V ar(ϕ1Yt−1 + εt|Yt−1)= ϕ21V ar(Yt−1|Yt−1) + V ar(εt) = σ
2 Varianza Condicional
-
103
6.4. Procesos Autoregresivos y de Medias Móviles ARMA(p,q)
Si en un proceso Yt ∼ AR(p)
Yt − ϕ1Yt−1 − ϕ2Yt−2 − · · · − ϕpYt−p = εt, εt ∼ R.B.(0, σ2), (6.27)
se cambia εt por un modeloMA(q), Zt = εt + θ1εt−1 + · · ·+ θqεt−q entonces (6.27) queda
Yt − ϕ1Yt−1 − · · · − ϕpYt−p = εt + θ1εt−1 + · · ·+ θqεt−q , (6.28)
donde εt ∼ RB(0, σ2). El efecto de este cambio es que los errores no se toman incorrela-cionados sino con autocorrelación débil. Se define entonces un proceso ARMA(p,q) como
un modelo que combina las propiedades de memoria larga de los AR(p) con las propiedades
de ruido débilmente autocorrelacionado en los MA(q), y que tiene suficiente flexibilidad y
parsimonia. Usando la notación del operador de rezago (6.28) se puede definir el proceso
ARMA(p, q) por
Definición 6.4.1. Un proceso Yt ∼ ARMA(p, q) se define mediante la ecuación (6.28), otambién por
ϕp(L)(Yt) = θq(L)(εt), t ∈ Z, (6.29)
donde εt ∼ RB(0, σ2), y ϕp(z) = 1 −∑p
j=1 ϕjzj , θq(z) = 1 +
∑qj=1 θjz
j son los
polinomios autoregresivo y de media móvil respectivamente.
Las condiciones de estacionariedad de la parte AR(p) y de invertibilidad de la parte MA(q)
se asumen en el modelo ARMA(p,q), (6.29). Por lo tanto, se asume que las raı́ces de las
ecuaciones ϕp(z) = 0 y θq(z) = 0 están fuera del cı́rculo unitario. Además se asume que
estos polinomios no tienen raı́ces en común. Si se cumplen estas condiciones el proceso
Yt ∼ ARMA(p, q) es estacionario e identificable.
Ejemplo 6.4.1. Sea Yt ∼ ARMA(1, 1) dado por
ϕ1(L)(Yt) = θ1(L)(εt) (6.30)
donde ϕ1(L) = 1−ϕL y θ1(L) = 1 + θL. Es decir Yt = ϕYt−1 + εt + θεt−1. Si |ϕ| < 1 y|θ| < 1 es estacionario e invertible. Por ejemplo
Yt = 0.9Yt−1 + εt − 0.4εt−1,
con εt ∼ RB(0, σ2)
-
104
Ejemplo 6.4.2. Consideremos un modelo de descomposición con tendencia lineal y esta-
cionalidad de perı́odo 12, modelada por variables indicadoras donde el residuo estructural
es un proceso ARMA(1, 1). Entonces el modelo se escribe como el sistema de dos ecua-
ciones siguiente.
Yt = β0 + β1t+
11∑
j=1
δjIj(t) + εt,
εt = ϕεt−1 + at + θat−1,
con at ∼ RB(0, σ2), el residuo del proceso arma. Nótese que el número de parámetros deeste modelo es 16, incluyendo la varianza σ2.
Ejemplo 6.4.3. Considere el proceso Yt ∼ ARMA(2, 1) dado por
Yt = 2 +1− 0.4L
1− 1.5L+ 0.9L2 εt, εt ∼ R.B.(0, σ2)
osea
Yt = 2(1− 1.5 + 0.9) + 1.5Yt−1 − 0.9Yt−3 + εt − 0.4εt−1
con ecuación caracterı́stica
1− 1.5z + 0.9z2 = 0
y sus raı́ces dadas por
z =1.5±
√1.52 − 4(0.9)2(0.9)
= 0.83± 0.645i
por tanto
|z| = 1.05 > 1
es un proceso estacionario en covarianza e invertible.
6.4.1. Propiedades de los Modelos ARMA
1. Suponga Yt ∼ ARMA(p, q) entonces E(Yt) = 0. Si el proceso es estacionarioentonces se puede expresar θq(z)/ϕp(z) =
∑∞j=0 ψjz
j conψ0 = 1 y∑∞
j=0 |ψj|
-
105
por tanto
E(Yt) = E(εt + ψ1εt−1 + ψ2εt−2 + . . . ) = 0.
2. En caso de ser E(Yt) = µ 6= 0 se coloca
Yt = µ+θq(L)
ϕp(L)εt (6.31)
de donde ϕp(L)Yt = ϕp(1)µ + θq(L)εt. Por ejemplo, sea Yt ∼ ARMA(1, 1) conE(Yt) = µ entonces
Yt = µ+1 + θL
1− ϕLεt
luego
(1− ϕL)Yt = (1− ϕL)µ+ (1− θL)εt
pero (1− ϕL)µ = µ− ϕµ = (1− ϕ)µ, luego
Yt = (1− ϕ)µ+ ϕYt−1 + εt + θεt−1.
3. La función de autocovarianza de un proceso Yt ∼ ARMA(p,q) estacionario de mediacero. Si se indica por R(k) = Cov(Yt, Yt+k) su función de autocovarianza, para
k = 0, 1, . . . un método para calcular esta función se basa en la representación
ϕp(L)Yt = θq(L)εt, con θq(z)/ϕp(z) =∑∞
j=0 ψjzj . Multiplicando ambos miembros
por Yt−k y tomando esperanza E(.) se obtienen las ecuaciones recursivas siguientes,
similares a las ecuaciones Yule-Walker para AR(p), (6.17). Defina n = max(p, q+1),
R(k)−ϕ1R(k−1)−. . .−ϕpR(k−p) =
σ2∑q
j=k θjψj−k, si k = 0, 1, . . . , n− 10, si k = n, n+ 1, . . . .
(6.32)
Ejemplo 6.4.4. (tomado de Brockwell and Davis [2002], pag. 93). Considere el
proceso ARMA(2,1) dado por (1−L+ 14L2)Yt = (1+L)εt. Entoncesn = max(p, q+1) = 2, por tanto, para k = 0, 1 se tiene el sistema lineal
R(0)− R(1) + 14R(2) = σ2(ψ0θ0 + ψ1θ1) = σ
2(1 + ψ1),
R(1)− R(0) + 14R(1) = σ2(θ1ψ0) = σ
2ψ0 = σ2. (6.33)
-
106
Para calcular los coeficientes (ψj, j = 0, 1, . . .) se puede utilizar la función de
R, ARMAtoMA(a,b,m), la cual calcula los coeficientes ψj, j = 1, 2, . . . , m,
dados los vectores a = (ϕ1, . . . , ϕp) y b = (θ1, . . . , θq). Entonces, escribiendo
ARMAtoMA(c(1.0, -0.25), 1.0, 10), se obtiene el vector
[1] 2.00000000 1.75000000 1.25000000 0.81250000 0.50000000
[6] 0.29687500 0.17187500 0.09765625 0.05468750 0.03027344
de donde ψ1 = 2. Usando la segunda ecuación de (6.32), se obtiene R(2) = R(1)−14R(0), luego, reemplazando en el sistema (6.33), y resolviendo, se obtienen R(0) =
32σ2/3, R(1) = 28σ2/3. Utilizando la segunda ecuación de (6.32),
R(k) = R(k − 1)− 14R(k − 2), k = 2, 3, . . .
se puede calcular la autocovarianza recursivamente.
4. La varianza de un proceso Yt ∼ ARMA(p,q) estacionario de media cero. Es evidenteque a partir de la primera ecuación en (6.32) se puede definir un sistema lineal una de
cuyas incógnitas es R(0), la cual se resuelve en función de σ2.
6.4.2. Librerı́as para identificación, estimación y pronósticos de modelos AR-
MA
El plan de análisis con procesos ARMA consiste en
1. Identificar el modelo ARMA(p,q).
2. Estimar el modelo.
3. Chequeo del ajuste del modelo a los datos.
4. Pronósticos con el modelo. O simulación del modelo.
Algunas de las librerı́as y funciones a utilizar para este análisis son
1. stat, con la función arima(), estima primero por mı́nimos cuadrados condicionales y
luego por máxima verosimilitud.
2. tseries, con la función arma(), estima mediante mı́nimos cuadrados condicionales.
3. forecast, con la función auto.arima(), para identificación de modelos ARIMA.
-
107
4. FitAR, FitARMA, para estimación de AR(p) y ARMA(p,q).
5. timsac, con la función autoarmafit(), para identificación del modelo ARMA(p,q) con
menor AIC. El programa asume que el modelo ARMA(p,q) se define con θq(z) =
1 −∑qj=1 θjzj , es decir, los coeficientes θj se cambian de signo en esta librerı́a.También tiene la función armafit() para ajuste de modelos ARMA.
6.4.3. Identificación de modelos ARMA
No es fácil identificar los modelos ARMA(p, q) mediante la FAC y FACP. Si (q ≥ p ≥ 1)entonces para (k ≥ q + 1) se cumple (6.21) y para 1 ≤ k ≤ p− 1, ρ(k) no tiene un patróngeneral, luego la FAC muestral presenta un patrón definido solamente para k ≥ q + 1.
������
������������
�
Figura 6.8: Fac Muestral de ARMA(p, q).
Una alternativa consiste en buscar una pareja de órdenes (p, q) dentro de un rango inicial,
por ejemplo p, q = 0, 1, . . . , 10, que minimice alguna función de ε̂2, como por ejemplo el
AIC ó el BIC.
6.4.4. Estimación de modelos ARMA
La estimación de procesos Yt ∼ ARMA(p,q) se basa en un supuesto: que el vector Y =(Y1, . . . , Yn)
′ se distribuye Normal multivariado con media µ, y matriz de covarianzas
Σ = [Cov(Yi, Yj)]n×n. Como el proceso se asume estacionario, se cumple Cov(Yi, Yj) =
R(j − i), donde R(k) es la función de autocovarianza de Yt. La forma de Σ es la de una
-
108
matriz tipo Toeplitz: las diagonales descendentes son constantes:
Σ =
R(0) R(1) · · · R(n− 1)R(1) R(0) · · · R(n− 2)R(2) R(1) · · · R(n− 3)
......
...
R(n− 1) R(n− 2) · · · R(0)
. (6.34)
Por ejemplo, para Yt un AR(p),R(k) se calcula mediante las ecuaciones Yule-Walker, (6.17),
R(k) = µ+∑p
j=1 ϕjR(k − j). Por tanto, colocando β = (µ, σ2, ϕ1, . . . , ϕp, θ1, . . . , θq)′,la matriz Σ depende del vector β, y se escribe Σ(β). Este supuesto permite implementar la
estimación por máxima verosimilitud. Se escribe la densidad Normal Multivariada como
f(y, β) =1
(2π)n/2√det(Σ(β))
exp
(−1
2(y − µ)Σ(β)−1(y − µ)′
)(6.35)
dondeµ = (µ, . . . , µ)′ ∈ Rn. La función de log-verosimilitud se define a partir del logaritmode la densidad (6.35), log(f(y, β)), y está dada por
L(β) :=
n∑
j=1
log f(yj, β)
= −n2
log(2π)− 12
log det(Σ(β))− 12(y − µ)′Σ(β)−1(y − µ). (6.36)
El estimador ML de máxima verosimilitud de β se define como
β̂ = argminβ
(−L(β)). (6.37)
La identificación con base en el AIC se basa en comparar varios modelosARMA(p, q) para
valores de, por ejemplo, p = 0, 1, . . . , 20 y p = 0, 1, . . . , 20 con base en el criterio AIC el
cual está definido por
AIC = −2L(β̂) + 2k, k = p+ q (6.38)
Entonces identifica un posible modelo parsimonioso escogiendo el modelo con el mı́nimo
AIC.
Ejemplo 6.4.5. Suponga que se requiere simular un ARMA(3, 2) tal que se escogen las
raı́ces de ϕ3(z) y θ2(z), con inversos dentro del cı́rculo unitario.
-
109
z1 = complex(3)
z1[1] = -0.8 - 1.3i
z1[2] = conj(z1[1])
z1[3] = 1.2
Entonces ϕ3(z) = 1− ϕ1z − ϕ2z2 − ϕ3z3
(z-z1[1])(z-z1[2])(z-z1[3])
= −2.796 + 0.41z + 0.4z2 + z3 polinomio mónico
-z1[1]z1[2]z1[3] = -2.2796
a = poly.calc(z1)
a = a/a[1]
z2 = complex(2)
z2[1] = -1.2 -0.5i
z2[2] = conj(z2[1])
b = poly.calc(z2)
b = b/b[1]
n = 300
y = arima.sim(list(order=c(3,0,2), ar=-a[2:4], ma=b[2:3]), n=n,
sd=sqrt(0.3))
require(forecast)
auto.arima(y)
y1 = arima.sim(list(order=c(3,0,2), ar=-a[2:4], ma=b[2:3]), n=n,
sd=sqrt(0.3), randgeb = function(n,...))
auto.arima(y1)
stats::arima(y1)
mod1 = stats::arima(y1, c(3,0,2))
py1 = predict(mod1, n.ahead=20)
plot(1:70, c(y[(3200-49):3200],py1$pred),
-
110
ylim=c(min(py1$pred-1.64*py1$se),max()), type=’b’, col=2)
points(51:70,py1$pred, type=’b’, col=’blue’)
points(51:70, py1$pred+1.64*py1$se, type=’l’, col=’blue’)
points(51:70, py1$pred-1.64*py1$se, type=’l’, col=’blue’)
6.4.5. Pronósticos con modelos ARMA