CAPITULO 6
Modelos ARMA para la Componente Aleatoria
6.1. Introduccion
En los modelos de descomposicion Yt = Tt + St + εt, t = 1, 2, . . . se estima εt y se
determina si es o no ruido blanco mediante las pruebas LjungBox y DurbinWatson. En
caso de encontrar que εt no es ruido blanco, el siguiente paso es modelar esta componente
mediante tres posibles modelos
1. Medias Moviles de orden q, MA(q).
2. Autoregresivos de orden q, AR(p).
3. Medias Moviles Autoregresivos,ARMA(p, q).
“Los tres modelos varıan en su capacidad de capturar distintos tipos de
comportamiento de autoregresion.” “Comenzaremos dando las caracterısticas
de las funciones de autocorrelacion y cantidadades relacionadads con cada
modelos, estas no tiene nada que ver con datos ni estimacion pero son fun
damentales para desarrollar una comprension basica de las propiedades de
los modelos necesarios para llevar a cabo pronosticos inteligentes.” Diebold
[1999, pag. 129]
89
90
6.2. Procesos de Medias Moviles de orden q
Definicion 6.2.1 (El Operador de Rezago). Se denota por L (lag, en ingles) y es tal que
L(Yt) = Yt−1. Es decir, L opera sobre una serie rezagandola un perıodo hacia atras. De
igual manera L(Yt−1) = Yt−2, luego L(L(Yt)) = L2(Yt) = Yt−2 y en general Lp(Yt) =
Yt−p. Se define tambien L0 = I , el operador identidad.
Un polinomio de grado p en el operador L se define como el operador formado por una
combinacion lineal de potencias de L
BP (L) = β0 + β1L+ β2L2 + · · ·+ βpL
p, (6.1)
tal que
BP (L)(Yt) = (β0 + β1L+ β2L2 + · · ·+ βpL
p)Yt,
=
p∑
j=0
βjLjYt,
=
p∑
j=0
βjYt−j ,
= β0Yt + β1Yt−1 + β2Yt−2 + · · ·+ βpYt−p.
Definicion 6.2.2 (Proceso MA(q)). Se dice que una serie Yt sigue un procesoMA(q), q =
1, 2, . . . de media movil de orden q, si se cumple que
Yt = εt + θ1εt−1 + · · ·+ θqεt−q , t ∈ Z, (6.2)
donde εt ∼ RB(0, σ2). La expresion con el operador L es, si se define el polinomio
θq(L) = 1 + θ1L+ · · ·+ θqLq, (6.3)
entonces la ecuacion (6.2) se expresa
Yt = θq(L)(εt). (6.4)
6.2.1. Propiedades
1. E(Yt) = 0
2. V ar(Yt) = (1 + θ21 + · · ·+ θ2q)σ2
91
luego V ar(Yt) > V ar(εt), en general.
3. Cov(Yt, Yt+k) = R(k), donde
R(K) =
σ2
q−k∑
j=0
θjθj+k , k < q + 1
0, k ≥ q + 1
(6.5)
con θ0 = 1.
4. Un MA(q) siempre es un proceso estacionario con fac, ρ(k) = R(k)R(0)
.
Interpretacion de 3. Un MA(q) es un proceso debilmente correlacionado. Se puede ver
como una alternativa a un Ruido Blanco completamente incorrelacionado.
Ejemplo 6.2.1. Sea Yt ∼MA(2) dado por
yt = εt − θ1εt−1 + θ2εt−2, εti.i.d.∼ N (0, 9), t ∈ Z,
con
θ1 = −0.4, θ2 = 0.4, σ2 = 9,
entonces
R(0) =(1 + 0.42 + 0.42
)9 = 11.88
R(1) = 9
2−1∑
j=0
θjθj+1 = 9(θ0θ1 + θ1θ2)
= 9(− 0.4 + (−0.4)(0.4)
)= −5.04
R(2) = 9
2−2∑
j=0
θjθj+2 = 9(θ0θ2) = 9(0.4) = 3.6.
Entonces la FAC es
ρ(0) = 1, ρ(1) = − 5.04
11.88= −0.42, ρ(2) =
3.6
11.88
ρ(3) = ρ(4) = · · · = 0
92
0 1 2 3 4
−0.4
−0.2
0.00.2
0.40.6
0.81.0
True ACF
Lag
True A
CF
Figura 6.1: Funcion de Autocorrelacion.
Ejercicio 6.2.1. Encuentre la FAC de
1. Yt = εt − 0.5εt−1 − 0.5εt−2.
2. Yt = εt + 0.6εt−1 − 0.3εt−2 − 0.1εt−3.
Conclusion De acuerdo con (6.5), si la fac muestral de una serie Yt termina abruptamente
puede tratarse de unMA(q). Por ejemplo, en la siguiente grafica 6.2 serıa factible un modelo
MA(3).
0 5 10 15
0.0
0.4
0.8
Lag
ACF
Series MA.3
Figura 6.2: FAC muestral de un MA(3).
Definicion 6.2.3 (Funcion de Autocorrelacion Parcial (facp)). Suponga que (Yt, t ∈ Z)
es estacionaria. La facp es una funcion de k, α(k), k = 1, 2, . . . definida por
1. α(1) = ρ(1)
2. α(k) = Corr(ε1, εk) donde
ε1 = Y1 − E(Y1|Y2, . . . , Yk−1)
εk = Yk −E(Yk|Y2, . . . , Yk−1), k = 2, . . .
93
Y la facp muestral se define por α(k)
1. α(1) = ρ(1)
2. α(2) : se regresa Yt sobre Yt−1 y Yt−2 tal que Yt = φ21Yt−1 + φ22Yt−2 + εt entonces
α(2) = φ22
3. α(k) : se regresa Yt sobre Yt−1, . . . , Yt−k tal que Yt = φk1Yt−1 + · · ·+φkkYt−k + εt
entonces α(k) = φkk
La facp de un proceso Yt ∼ MA(q) se puede encontrar si se asume la condicion de
invertibilidad para un MA(q)
6.2.2. Condicion de Invertibilidad del Proceso MA(q)
Definicion 6.2.4. Dado un proceso MA(q), Yt = θq(L)(εt) donde θq(L) = 1+θ1L+θ2L2+
· · ·+ θqLq, entonces considerando el polinomio en z ∈ C, θq(z) = 1 + θ1z + · · ·+ θqz
q y
sus q raıces (z1, z2, . . . , zq) ∈ C, es decir, valores z ∈ C tales que θq(z) = 0, se dice que el
proceso Yt es invertible si se cumple
|zj| > 1, ∀j = 1, . . . , q, (6.6)
o tambien, si θq(z) 6= 0, ∀z, |z| ≤ 1. Note que (6.6) es equivalente a
1
|zj|< 1, ∀j = 1, . . . , q
es decir, los inversos de las raıces deben caer dentro del cırculo unitario complejo.
Ejemplo 6.2.2. Sea Yt ∼MA(a) tal que
Yt = εt − 0.4εt−1 + 0.4εt−2, (6.7)
veamos si Yt es invertible. Hallamos las raıces del polinomio θq(z)
θ2(z) = 1− 0.4z + 0.4z2 = 0,
z =0.4±
√0.42 − 4(0.4)(1)
2(0.4)
=1
2± 1
2
10
4
√4
10
√4
10− 4 =
1
2± 1
2
√10
2
√−36
10
=1
2± 1
2
√10
2
√36
10i =
1
2± 3
2i
94
por tanto
|z| =
√(1
2
)2
+
(±3
2
)2
=
√1
4+ 9 > 1,
luego Yt es invertible.
6.2.3. Funcion facp de un Proceso MA(q) invertible
Suponga un proceso Yt ∼MA(q) invertible,
Yt = θq(L)(εt). (6.8)
Considere θq(z) = 1+ θ1z+ · · ·+ θqzq entonces θq(z) 6= 0, |z| ≤ 1, luego la funcion 1
θq(z)
tiene desarrollo es serie de Taylor alrededor de z = 0, dado por
1
θq(z)= 1 + ψ1z + ψ2z
2 + . . . =
∞∑
j=0
ψjzj, ψ0 = 1, (6.9)
con∑∞
j=0 ψ2 <∞, donde ψj → 0 si j →∞. Multiplicando ambos miembros de (6.8) por
1θq(L) se obtiene
εt =1
θq(L)Yt = ψ(L)(Yt) = Yt + ψ1Yt−1 + ψ2Yt−2 + . . . (6.10)
Y despejando Yt
Yt = −ψ1Yt−1 − ψ2Yt−2 − · · ·+ εt, (6.11)
de donde concluımos que si hace la regresion de Yt sobre los primeros k rezagos Yt−j , j =
1, . . . , k, entonces el kesimo coeficiente es α(k) = ψ(k) 6= 0, ∀k y como ψ(k) → 0
entonces α(k) → 0 cuando k →∞. Por tanto, la facp de un MA(q) decrece a cero. En las
Figuras siguientes 6.3 se observa la fac y la facp de un MA(3).
95
0 5 10 15 20
0.0
0.4
0.8
True ACF
Lag
True
AC
F
(a) FAC
5 10 15 20
−0.
20.
20.
61.
0
True PACF
Lag
True
PA
CF
(b) FACP
Figura 6.3: FAC y FACP de un MA(3).
6.2.4. Implementacion en R
En R para identificar se usan las funciones acf y pacf y para estimar una de las funciones
usadas es arma de la librerıa tseries.
Ejemplo 6.2.3. library(forecast,tseries)
n = 300
theta = c(1,0.4,0.4)
(Mod(polyroot(theta)))
y = arima.sim(list(order=c(0,0,2), ma=theta[2:3]), n=n, sd=sqrt(2.3))
layout(1:3)
ts.plot(y)
acf(y,30)
pacf(y,30)
# Estimacion: Funcion arma librerıa tseries
modelo.y = arma(x=y, order=c(0,2))
summary(modelo.y)
96
0 5 10 15 20 25 30
0.0
0.6
Lag
AC
F
Series y
(a) FAC
5 10 15 20
−0.1
0.2
0.4
Lag
Pa
rtia
l A
CF
Series y
(b) FACP
Figura 6.4: FAC y FACP del Ejemplo.
pred.y = predict(modelo.y, n.ahead=2)
plot(seq(1,9,1), c(tail(y), pred.y$pred), type=’b’)
points(seq(7,9,1), pred.y$pred, type=’b’, col=’red’)
6.3. Procesos Autoregresivos de Orden p, AR(p)
Definicion 6.3.1 (Proceso AR(p)). Se dice que Yn, n ∈ Z sigue un proceso AR(p) si
Yn = ϕ1Yn−1 + ϕ2Yn−2 + · · ·+ ϕpYn−p + εn, (6.12)
donde εn ∼ RB(0, σ2). Usando el operador de rezago L se puede escribir (6.12) como
ϕp(L)(Yn) = εn, (6.13)
con ϕp(z) = 1− ϕ1z + ϕ2z2 + · · ·+ ϕpz
p, z ∈ C, el polinomio autorregresivo.
Condicion Suficiente para que un AR(p) sea Estacionario
La condicion suficiente para que Yt ∼ AR(p) sea estacionario en covarianza es que las p
raıces del la ecuacion ϕp(z) = 0, z1, z2, . . . , zp cumplan
|zi| > 1 (6.14)
donde ϕp(z) es el polinomio caracterıstico del AR(p) definido por
97
ϕp(z) = 1− ϕ1z − ϕ2z2 − · · · − ϕpz
p, z ∈ C, (6.15)
Notese que si zj = aj ± ibj entonces |zj| =√a2
j + b2j . La condicion (6.14) no es, sin
embargo, necesaria. En palabras, la condicion (6.14) se describe como “ para que un proceso
autoregresivo de orden p sea estacionario en covarianza, es suficiente que las raıces del
polinomio autorregresivo esten por fuera del cırculo unitario”. El cırculo unitario aparece en
la Figura 6.5. En esta figura se observa la posicion de la raız zj y su conjugado zj .
�
�
� ��
��
����� ��
����� ��
Figura 6.5: Cırculo Unitario
6.3.1. Algunas Propiedades de los Procesos AR(p) Estacionarios
Proposicion 6.3.1. Para un proceso Yt ∼ AR(p), definido en (6.12), se tieneE(Yt) = 0.
Demostracion. Si Yt es estacionario en covarianza entonces E(Yt) = µ. Ademas,
E(Yt) = ϕ1E(Yt−1) + ϕ2E(Yt−2) + · · ·+ ϕpE(Yt−p) + 0,
pero todas las esperanzas son µ luego
µ = ϕ1µ+ ϕ2µ+ · · ·+ ϕpµ.
Si µ 6= 0 entonces
1 = ϕ1 + · · ·+ ϕp
por tanto
ϕp(1) = 0
98
lo cual es una contradiccion (→←), ya que ∀ z ∈ C, |z| ≤ 1 entonces
ϕp(z) 6= 0.
luego debe tenerse que µ = 0, es decir, el proceso definido en (6.12) es de media cero.
Un proceso Yt ∼ AR(p) con E(Yt) = µ 6= 0 se define como
ϕp(L)(Yt) = ϕ0 + εt, (6.16)
donde
ϕ0 = ϕp(L)(µ)
= (1− ϕ1 − ϕ2 − · · · − ϕp)µ.
Notese que tambien se puede escribirYt = (1−ϕ1−· · ·−ϕp)µ+ϕ1Yt−1+· · ·+ϕpYt−p+εt,
de donde Yt − µ = ϕ1(Yt−1 − µ) + · · ·+ ϕp(Yt−p − µ) + εt. Es decir, el proceso (Yt − µ)
es AR(p) de media cero.
La Funcion de Autocovarianza de los Procesos AR(p)
La funcion de autocovarianza de un proceso Yt ∼ AR(p) estacionario en covarianza, R(k)
se puede calcular resolviendo una ecuacion recursiva lineal denominada, en plural, las
ecuaciones de Yule–Walker.
Proposicion 6.3.2. Suponga un proceso AR(p), Yn =∑p
j=1 ϕjYn−j + εt, que satisface la
condicion de estacionario en covarianza ((6.14)). Su funcion fac R(k) satisface la ecuacion
recursiva
R(k) =
p∑
j=1
ϕjR(k− j), k = 1, 2, . . . . (6.17)
denominada, en plural, Ecuaciones de Yule–Walker.
Demostracion. Colocando µ = E(Yn), como Yn =∑p
j=1 ϕjYn−j + εn, al tomar esperanza
en ambos miembros se obtiene µ =∑p
j=1 ϕjµ+ 0. Restando las expresiones anteriores se
obtieneYn−µ =∑p
j=1 ϕj(Yn−j −µ)+εn. Multiplicando ambos miembros de la identidad
anterior por Yn−k − µ, con k ≤ n, y tomando valor esperado E(.) se obtiene
R(k) = E((Yn − µ)(Yn−k − µ))
99
=
p∑
j=1
ϕE((Yn−j − µ)(Yn−k − µ)) + E(εn(Yn−k − µ))
=
p∑
j=1
ϕjR(k − j).
En el resultado anterior se tiene E(εn(Yn−k − µ)) = 0 porque, a partir de la definicion del
procesoYn en (6.12),Yn−k depende de εs con s ≤ n−k, que son variables incorrelacionadas
con εn.
La Varianza de los Procesos AR(p)
Si Yt ∼ AR(p) de media cero, estacionario en covarianza entonces ϕp(L)(Yn) = εn, para
εn ∼ RB(0, σ2). Ademas, se cumple que ∀z, |z| ≤ 1 ϕp(z) 6= 0 entonces el cociente 1ϕp(z)
se puede desarrollar en serie de potencias de z, y colocar
1
ϕp(z)=
∞∑
j=0
ψjzj,
para ciertos coeficientes (ψj, j = 0, 1, . . .), con ψ0 = 1. Por tanto, se puede colocar
Yn =1
ϕp(L)(εn) = εn + ψ1εn−1 + ψ2εn−2 + . . . . (6.18)
Tomando varianza a ambos miembros de (6.18), se obtiene V ar(Yn) = σ2∑∞
j=0 ψj .
Estimacion de la FAC de un AR(p)
ρ(k) = Corr(Yt, Yt+k), k = 1, 2, . . . , p, p+ 1, . . . (6.19)
cumple que:
1. Se tiene un sistema lineal p× p que cumple
A =
1 ρ(1) · · · ρ(p− 1)
ρ(1) ρ(2) · · · ρ(p− 2)
ρ(2) ρ(3) · · · ρ(p− 3)...
......
ρ(p− 1) ρ(p− 2) · · · 1
, ϕ =
ϕ1
ϕ2
...
ϕp
, ρ =
ρ(1)
ρ(2)...
ρ(p)
,
100
entonces
Aϕ = ρ. (6.20)
Luego dada ρ(1), . . . , ρ(p) se puede resolver (6.20) tomando ϕ = A−1ρ, los esti
madores de YuleWalker de ϕ
2.
ρ(k) = ϕ1ρ(k − 1) + ϕ2ρ(k− 2) + · · ·+ ϕpρ(k− p), k = p, p+ 1, . . . (6.21)
Entoces (6.21) forma una ecuacion en diferencias finitas con condiciones iniciales
ρ(1), . . . , ρ(p), para ρ(k), k ≥ p+ 1, con solucion
ρ(k) = s1gk1 + s2g
22 + · · ·+ spg
p2, (6.22)
donde gi = 1/zi y zi es la iesima raız de la ecuacion caracterıstica
1− ϕ1z − ϕ2z2 − · · · − ϕpz
p = 0 (6.23)
con |zi| > 1⇔ |gi| < 1, luego se debe cumplir que ρ(k)→ 0, k →∞
Nota 6.3.1. Si gi ≈ 1, por ejemplo gi = 1− ε se tendra sigki = si(1− ε)k y por tanto
ρ(k) decae a cero mas lento que si gi = ε.
0 5 10 15 20
0.0
0.4
0.8
True ACF
Lag
True
AC
F
(a) ϕ = 0.35
0 5 10 15 20
0.0
0.4
0.8
True ACF
Lag
True
AC
F
(b) ϕ = 0.88
Figura 6.6: FAC de Yt = ϕYt−1 + εt.
FACP de los Procesos AR(p)
La FACP de un procesos AR(p) es α(k) tal que α(k) es el coeficiente βk,k en la regresion
Yt = β0 + βk,1Yt−1 + · · ·+ βk,kYt−k + at, k = 2 (6.24)
101
pero como βk,k = 0 si k ≥ p+ 1 entoces α(k) = 0 si k ≥ p+ 1
2000−09−27 2001−02−20 2001−07−16
4555
65
Figura 6.7: FACP Muestral de AR(p).
Ejemplo 6.3.1. Sea Yt ∼ AR(2) con
Yt = ϕ1Yt−1 + ϕ2Yt−2 + εt, εti.i.d.∼ N (0, σ2)
Yt = 1.5Yt−1 − 0.9Yt−2 + εt,
ϕ2(z) = 1− 1.5z + 0.9z2 = 0 ecuacion caracterıstica
z = 0.83± 0, 64i, |z| = 1.054 > 1
luego Yt es estacionario en covarianza, ademas
ρ(k) = 1− 1.5ρ(k− 1) + 0.9ρ(k− 2), k ≥ 2
ρ(0) = 1, ρ(1) =ϕ1
1− ϕ2=
1.5
1.9= 0.789.
6.3.2. Proceso AR(1)
El proceso AR(1) se ha utilizado anteriormente por ejemplo, en la prueba DurbinWatson.
A continuacion se desarrollan algunas de sus propiedades.
Si Yt es un AR(1) de media µ, entonces esta definido por
Yt = ϕ0 + ϕ1Yt−1 + εt, ϕ0 = (1− ϕ1)µ, (6.25)
donde el proceso Yt es estacionario si todas la raıces z de la ecuacion ϕ1(z) = 0 caen
fuera del circulo unitario |z| > 1. Luego el AR(1) es estacionario en covarianza si y solo si
|ϕ1| < 1.
Definicion 6.3.2 (Marcha Aleatoria). Se dice que Yt es una marcha aleatoria (Random
Walk) si cumple
Yt = µ+ Yt−1 + εt, (6.26)
102
notese que es un AR(1) con ϕ1 = 1.
Propiedades del AR(1)
1. E(Yt) = µ =ϕ0
1− ϕ1
2. Cov(Yt, Yt+k) =σ2ϕk
11 − ϕk
1
, k = 0, 1, . . .
3. ρ(k) = ϕk1, −1 < ϕ1 < 1.
Nota 6.3.2. Diebold [1999, pag. 138], Si Yt ∼ AR(1) de media cero estacionario en
covarianza entonces
Yt = ϕ1Yt−1 + εt, εt ∼ R.B.(0, σ2)
es decir
(1− ϕ1L)Yt = εt
y se puede escribir como
Yt =1
1− ϕ1Lεt,
si se cumple que
f(z) =1
1− ϕ1z=
∞∑
j=0
ϕj1z
j = 1 + ϕ1z + ϕ21z
2 + . . .
por que |ϕ1 z| < 1 ya que |ϕ1| < 1 y |z| < 1. Entonces
Yt = εt + ϕ1εt−1 + ϕ21εt−2 + . . . ,
y como los εt son incorrelacionados
V ar(Yt) = σ2 + ϕ1σ2 + ϕ2
1σ2 + . . .
= σ2(1 + ϕ1 + ϕ21 + . . . ) = σ2
(1
1− ϕ1
)Varianza Incondicional
Nota 6.3.3. Si Yt ∼ AR(1) de media cero estacionario en covarianza entonces
E(Yt|Yt−1) = E(ϕ1Yt−1 + εy|Yt−1) = ϕ1Yt−1,
y si se asume que εt son independientes de yt−1, Yt−2, . . .
V ar(Yt|Yt−1) = V ar(ϕ1Yt−1 + εt|Yt−1)
= ϕ21V ar(Yt−1|Yt−1
) + V ar(εt) = σ2 Varianza Condicional
103
6.4. Procesos Autoregresivos y de Medias Moviles ARMA(p,q)
Si en un proceso Yt ∼ AR(p)
Yt − ϕ1Yt−1 − ϕ2Yt−2 − · · · − ϕpYt−p = εt, εt ∼ R.B.(0, σ2), (6.27)
se cambia εt por un modeloMA(q), Zt = εt + θ1εt−1 + · · ·+ θqεt−q entonces (6.27) queda
Yt − ϕ1Yt−1 − · · · − ϕpYt−p = εt + θ1εt−1 + · · ·+ θqεt−q , (6.28)
donde εt ∼ RB(0, σ2). El efecto de este cambio es que los errores no se toman incorrela
cionados sino con autocorrelacion debil. Se define entonces un proceso ARMA(p,q) como
un modelo que combina las propiedades de memoria larga de los AR(p) con las propiedades
de ruido debilmente autocorrelacionado en los MA(q), y que tiene suficiente flexibilidad y
parsimonia. Usando la notacion del operador de rezago (6.28) se puede definir el proceso
ARMA(p, q) por
Definicion 6.4.1. Un proceso Yt ∼ ARMA(p, q) se define mediante la ecuacion (6.28), o
tambien por
ϕp(L)(Yt) = θq(L)(εt), t ∈ Z, (6.29)
donde εt ∼ RB(0, σ2), y ϕp(z) = 1 − ∑pj=1 ϕjz
j , θq(z) = 1 +∑q
j=1 θjzj son los
polinomios autoregresivo y de media movil respectivamente.
Las condiciones de estacionariedad de la parte AR(p) y de invertibilidad de la parte MA(q)
se asumen en el modelo ARMA(p,q), (6.29). Por lo tanto, se asume que las raıces de las
ecuaciones ϕp(z) = 0 y θq(z) = 0 estan fuera del cırculo unitario. Ademas se asume que
estos polinomios no tienen raıces en comun. Si se cumplen estas condiciones el proceso
Yt ∼ ARMA(p, q) es estacionario e identificable.
Ejemplo 6.4.1. Sea Yt ∼ ARMA(1, 1) dado por
ϕ1(L)(Yt) = θ1(L)(εt) (6.30)
donde ϕ1(L) = 1−ϕL y θ1(L) = 1 + θL. Es decir Yt = ϕYt−1 + εt + θεt−1. Si |ϕ| < 1 y
|θ| < 1 es estacionario e invertible. Por ejemplo
Yt = 0.9Yt−1 + εt − 0.4εt−1,
con εt ∼ RB(0, σ2)
104
Ejemplo 6.4.2. Consideremos un modelo de descomposicion con tendencia lineal y esta
cionalidad de perıodo 12, modelada por variables indicadoras donde el residuo estructural
es un proceso ARMA(1, 1). Entonces el modelo se escribe como el sistema de dos ecua
ciones siguiente.
Yt = β0 + β1t+
11∑
j=1
δjIj(t) + εt,
εt = ϕεt−1 + at + θat−1,
con at ∼ RB(0, σ2), el residuo del proceso arma. Notese que el numero de parametros de
este modelo es 16, incluyendo la varianza σ2.
Ejemplo 6.4.3. Considere el proceso Yt ∼ ARMA(2, 1) dado por
Yt = 2 +1− 0.4L
1− 1.5L+ 0.9L2εt, εt ∼ R.B.(0, σ2)
osea
Yt = 2(1− 1.5 + 0.9) + 1.5Yt−1 − 0.9Yt−3 + εt − 0.4εt−1
con ecuacion caracterıstica
1− 1.5z + 0.9z2 = 0
y sus raıces dadas por
z =1.5±
√1.52 − 4(0.9)
2(0.9)= 0.83± 0.645i
por tanto
|z| = 1.05 > 1
es un proceso estacionario en covarianza e invertible.
6.4.1. Propiedades de los Modelos ARMA
1. Suponga Yt ∼ ARMA(p, q) entonces E(Yt) = 0. Si el proceso es estacionario
entonces se puede expresar θq(z)/ϕp(z) =∑∞
j=0 ψjzj conψ0 = 1 y
∑∞j=0 |ψj| <∞.
A partir de ϕp(L)Yt = θq(L)εt, se puede escribir
Yt =θq(L)
ϕp(L)εt =
∞∑
j=0
ψjεt−j = εt + ψ1εt−1 + ψ2εt−2 + . . . ,
105
por tanto
E(Yt) = E(εt + ψ1εt−1 + ψ2εt−2 + . . . ) = 0.
2. En caso de ser E(Yt) = µ 6= 0 se coloca
Yt = µ+θq(L)
ϕp(L)εt (6.31)
de donde ϕp(L)Yt = ϕp(1)µ + θq(L)εt. Por ejemplo, sea Yt ∼ ARMA(1, 1) con
E(Yt) = µ entonces
Yt = µ+1 + θL
1− ϕLεt
luego
(1− ϕL)Yt = (1− ϕL)µ+ (1− θL)εt
pero (1− ϕL)µ = µ− ϕµ = (1− ϕ)µ, luego
Yt = (1− ϕ)µ+ ϕYt−1 + εt + θεt−1.
3. La funcion de autocovarianza de un proceso Yt ∼ ARMA(p,q) estacionario de media
cero. Si se indica por R(k) = Cov(Yt, Yt+k) su funcion de autocovarianza, para
k = 0, 1, . . . un metodo para calcular esta funcion se basa en la representacion
ϕp(L)Yt = θq(L)εt, con θq(z)/ϕp(z) =∑∞
j=0 ψjzj . Multiplicando ambos miembros
por Yt−k y tomando esperanza E(.) se obtienen las ecuaciones recursivas siguientes,
similares a las ecuaciones YuleWalker para AR(p), (6.17). Defina n = max(p, q+1),
R(k)−ϕ1R(k−1)−. . .−ϕpR(k−p) =
σ2∑q
j=k θjψj−k, si k = 0, 1, . . . , n− 1
0, si k = n, n+ 1, . . . .
(6.32)
Ejemplo 6.4.4. (tomado de Brockwell and Davis [2002], pag. 93). Considere el
proceso ARMA(2,1) dado por (1−L+ 14L
2)Yt = (1+L)εt. Entoncesn = max(p, q+
1) = 2, por tanto, para k = 0, 1 se tiene el sistema lineal
R(0)− R(1) +1
4R(2) = σ2(ψ0θ0 + ψ1θ1) = σ2(1 + ψ1),
R(1)− R(0) +1
4R(1) = σ2(θ1ψ0) = σ2ψ0 = σ2. (6.33)
106
Para calcular los coeficientes (ψj, j = 0, 1, . . .) se puede utilizar la funcion de
R, ARMAtoMA(a,b,m), la cual calcula los coeficientes ψj, j = 1, 2, . . . , m,
dados los vectores a = (ϕ1, . . . , ϕp) y b = (θ1, . . . , θq). Entonces, escribiendo
ARMAtoMA(c(1.0, 0.25), 1.0, 10), se obtiene el vector
[1] 2.00000000 1.75000000 1.25000000 0.81250000 0.50000000
[6] 0.29687500 0.17187500 0.09765625 0.05468750 0.03027344
de donde ψ1 = 2. Usando la segunda ecuacion de (6.32), se obtiene R(2) = R(1)−14R(0), luego, reemplazando en el sistema (6.33), y resolviendo, se obtienen R(0) =
32σ2/3, R(1) = 28σ2/3. Utilizando la segunda ecuacion de (6.32),
R(k) = R(k − 1)− 1
4R(k − 2), k = 2, 3, . . .
se puede calcular la autocovarianza recursivamente.
4. La varianza de un proceso Yt ∼ ARMA(p,q) estacionario de media cero. Es evidente
que a partir de la primera ecuacion en (6.32) se puede definir un sistema lineal una de
cuyas incognitas es R(0), la cual se resuelve en funcion de σ2.
6.4.2. Librerıas para identificacion, estimacion y pronosticos de modelos AR
MA
El plan de analisis con procesos ARMA consiste en
1. Identificar el modelo ARMA(p,q).
2. Estimar el modelo.
3. Chequeo del ajuste del modelo a los datos.
4. Pronosticos con el modelo. O simulacion del modelo.
Algunas de las librerıas y funciones a utilizar para este analisis son
1. stat, con la funcion arima(), estima primero por mınimos cuadrados condicionales y
luego por maxima verosimilitud.
2. tseries, con la funcion arma(), estima mediante mınimos cuadrados condicionales.
3. forecast, con la funcion auto.arima(), para identificacion de modelos ARIMA.
107
4. FitAR, FitARMA, para estimacion de AR(p) y ARMA(p,q).
5. timsac, con la funcion autoarmafit(), para identificacion del modelo ARMA(p,q) con
menor AIC. El programa asume que el modelo ARMA(p,q) se define con θq(z) =
1 −∑qj=1 θjz
j , es decir, los coeficientes θj se cambian de signo en esta librerıa.
Tambien tiene la funcion armafit() para ajuste de modelos ARMA.
6.4.3. Identificacion de modelos ARMA
No es facil identificar los modelos ARMA(p, q) mediante la FAC y FACP. Si (q ≥ p ≥ 1)
entonces para (k ≥ q + 1) se cumple (6.21) y para 1 ≤ k ≤ p− 1, ρ(k) no tiene un patron
general, luego la FAC muestral presenta un patron definido solamente para k ≥ q + 1.
������
����� �������
�
Figura 6.8: Fac Muestral de ARMA(p, q).
Una alternativa consiste en buscar una pareja de ordenes (p, q) dentro de un rango inicial,
por ejemplo p, q = 0, 1, . . . , 10, que minimice alguna funcion de ε2, como por ejemplo el
AIC o el BIC.
6.4.4. Estimacion de modelos ARMA
La estimacion de procesos Yt ∼ ARMA(p,q) se basa en un supuesto: que el vector Y =
(Y1, . . . , Yn)′ se distribuye Normal multivariado con media µ, y matriz de covarianzas
Σ = [Cov(Yi, Yj)]n×n. Como el proceso se asume estacionario, se cumple Cov(Yi, Yj) =
R(j − i), donde R(k) es la funcion de autocovarianza de Yt. La forma de Σ es la de una
108
matriz tipo Toeplitz: las diagonales descendentes son constantes:
Σ =
R(0) R(1) · · · R(n− 1)
R(1) R(0) · · · R(n− 2)
R(2) R(1) · · · R(n− 3)...
......
R(n− 1) R(n− 2) · · · R(0)
. (6.34)
Por ejemplo, para Yt un AR(p),R(k) se calcula mediante las ecuaciones YuleWalker, (6.17),
R(k) = µ+∑p
j=1 ϕjR(k − j). Por tanto, colocando β = (µ, σ2, ϕ1, . . . , ϕp, θ1, . . . , θq)′,
la matriz Σ depende del vector β, y se escribe Σ(β). Este supuesto permite implementar la
estimacion por maxima verosimilitud. Se escribe la densidad Normal Multivariada como
f(y, β) =1
(2π)n/2√det(Σ(β))
exp
(−1
2(y − µ)Σ(β)−1(y − µ)′
)(6.35)
dondeµ = (µ, . . . , µ)′ ∈ Rn. La funcion de logverosimilitud se define a partir del logaritmo
de la densidad (6.35), log(f(y, β)), y esta dada por
L(β) :=
n∑
j=1
log f(yj, β)
= −n2
log(2π)− 1
2log det(Σ(β))− 1
2(y − µ)′Σ(β)−1(y − µ). (6.36)
El estimador ML de maxima verosimilitud de β se define como
β = argminβ
(−L(β)). (6.37)
La identificacion con base en el AIC se basa en comparar varios modelosARMA(p, q) para
valores de, por ejemplo, p = 0, 1, . . . , 20 y p = 0, 1, . . . , 20 con base en el criterio AIC el
cual esta definido por
AIC = −2L(β) + 2k, k = p+ q (6.38)
Entonces identifica un posible modelo parsimonioso escogiendo el modelo con el mınimo
AIC.
Ejemplo 6.4.5. Suponga que se requiere simular un ARMA(3, 2) tal que se escogen las
raıces de ϕ3(z) y θ2(z), con inversos dentro del cırculo unitario.
109
z1 = complex(3)
z1[1] = 0.8 1.3i
z1[2] = conj(z1[1])
z1[3] = 1.2
Entonces ϕ3(z) = 1− ϕ1z − ϕ2z2 − ϕ3z
3
(zz1[1])(zz1[2])(zz1[3])
= −2.796 + 0.41z + 0.4z2 + z3 polinomio monico
z1[1]z1[2]z1[3] = 2.2796
a = poly.calc(z1)
a = a/a[1]
z2 = complex(2)
z2[1] = 1.2 0.5i
z2[2] = conj(z2[1])
b = poly.calc(z2)
b = b/b[1]
n = 300
y = arima.sim(list(order=c(3,0,2), ar=a[2:4], ma=b[2:3]), n=n,
sd=sqrt(0.3))
require(forecast)
auto.arima(y)
y1 = arima.sim(list(order=c(3,0,2), ar=a[2:4], ma=b[2:3]), n=n,
sd=sqrt(0.3), randgeb = function(n,...))
auto.arima(y1)
stats::arima(y1)
mod1 = stats::arima(y1, c(3,0,2))
py1 = predict(mod1, n.ahead=20)
plot(1:70, c(y[(320049):3200],py1$pred),
110
ylim=c(min(py1$pred1.64*py1$se),max()), type=’b’, col=2)
points(51:70,py1$pred, type=’b’, col=’blue’)
points(51:70, py1$pred+1.64*py1$se, type=’l’, col=’blue’)
points(51:70, py1$pred1.64*py1$se, type=’l’, col=’blue’)
6.4.5. Pronosticos con modelos ARMA
Top Related