CAP´ITULO 6 Modelos ARMA para la Componente Aleatoriandgirald/Archivos... · CAP´ITULO 6 Modelos...

of 22 /22
CAP ´ ITULO 6 Modelos ARMA para la Componente Aleatoria 6.1. Introducci´ on En los modelos de descomposici´ on Y t = T t + S t + ε t ,t =1, 2,... se estima ˆ ε t y se determina si es o n´ o ruido blanco mediante las pruebas Ljung-Box y Durbin-Watson. En caso de encontrar que ˆ ε t no es ruido blanco, el siguiente paso es modelar esta componente mediante tres posibles modelos 1. Medias M´ oviles de orden q, MA(q). 2. Autoregresivos de orden q, AR(p). 3. Medias M´ oviles Autoregresivos, ARMA(p,q). “Los tres modelos var´ ıan en su capacidad de capturar distintos tipos de comportamiento de autoregresi´ on.” “Comenzaremos dando las caracter´ ısticas de las funciones de autocorrelaci´ on y cantidadades relacionadads con cada modelos, est´ as no tiene nada que ver con datos ni estimaci´ on pero son fun- damentales para desarrollar una comprensi´ on b´ asica de las propiedades de los modelos necesarios para llevar a cabo pron´ osticos inteligentes.” Diebold [1999, p´ ag. 129] 89

Embed Size (px)

Transcript of CAP´ITULO 6 Modelos ARMA para la Componente Aleatoriandgirald/Archivos... · CAP´ITULO 6 Modelos...

  • CAPÍTULO 6

    Modelos ARMA para la Componente Aleatoria

    6.1. Introducción

    En los modelos de descomposición Yt = Tt + St + εt, t = 1, 2, . . . se estima ε̂t y se

    determina si es o nó ruido blanco mediante las pruebas Ljung-Box y Durbin-Watson. En

    caso de encontrar que ε̂t no es ruido blanco, el siguiente paso es modelar esta componente

    mediante tres posibles modelos

    1. Medias Móviles de orden q, MA(q).

    2. Autoregresivos de orden q, AR(p).

    3. Medias Móviles Autoregresivos,ARMA(p, q).

    “Los tres modelos varı́an en su capacidad de capturar distintos tipos de

    comportamiento de autoregresión.” “Comenzaremos dando las caracterı́sticas

    de las funciones de autocorrelación y cantidadades relacionadads con cada

    modelos, estás no tiene nada que ver con datos ni estimación pero son fun-

    damentales para desarrollar una comprensión básica de las propiedades de

    los modelos necesarios para llevar a cabo pronósticos inteligentes.” Diebold

    [1999, pág. 129]

    89

  • 90

    6.2. Procesos de Medias Móviles de orden q

    Definición 6.2.1 (El Operador de Rezago). Se denota por L (lag, en inglés) y es tal que

    L(Yt) = Yt−1. Es decir, L opera sobre una serie rezagándola un perı́odo hacia atrás. De

    igual manera L(Yt−1) = Yt−2, luego L(L(Yt)) = L2(Yt) = Yt−2 y en general L

    p(Yt) =

    Yt−p. Se define también L0 = I , el operador identidad.

    Un polinomio de grado p en el operador L se define como el operador formado por una

    combinación lineal de potencias de L

    BP (L) = β0 + β1L+ β2L2 + · · ·+ βpLp, (6.1)

    tal que

    BP (L)(Yt) = (β0 + β1L+ β2L2 + · · ·+ βpLp)Yt,

    =

    p∑

    j=0

    βjLjYt,

    =

    p∑

    j=0

    βjYt−j ,

    = β0Yt + β1Yt−1 + β2Yt−2 + · · ·+ βpYt−p.

    Definición 6.2.2 (Proceso MA(q)). Se dice que una serie Yt sigue un procesoMA(q), q =

    1, 2, . . . de media móvil de orden q, si se cumple que

    Yt = εt + θ1εt−1 + · · ·+ θqεt−q , t ∈ Z, (6.2)

    donde εt ∼ RB(0, σ2). La expresión con el operador L es, si se define el polinomio

    θq(L) = 1 + θ1L+ · · ·+ θqLq, (6.3)

    entonces la ecuación (6.2) se expresa

    Yt = θq(L)(εt). (6.4)

    6.2.1. Propiedades

    1. E(Yt) = 0

    2. V ar(Yt) = (1 + θ21 + · · ·+ θ2q)σ2

  • 91

    luego V ar(Yt) > V ar(εt), en general.

    3. Cov(Yt, Yt+k) = R(k), donde

    R(K) =

    σ2q−k∑

    j=0

    θjθj+k , k < q + 1

    0, k ≥ q + 1(6.5)

    con θ0 = 1.

    4. Un MA(q) siempre es un proceso estacionario con fac, ρ(k) = R(k)R(0)

    .

    Interpretación de 3. Un MA(q) es un proceso débilmente correlacionado. Se puede ver

    como una alternativa a un Ruido Blanco completamente incorrelacionado.

    Ejemplo 6.2.1. Sea Yt ∼MA(2) dado por

    yt = εt − θ1εt−1 + θ2εt−2, εt i.i.d.∼ N (0, 9), t ∈ Z,

    con

    θ1 = −0.4, θ2 = 0.4, σ2 = 9,

    entonces

    R(0) =(1 + 0.42 + 0.42

    )9 = 11.88

    R(1) = 9

    2−1∑

    j=0

    θjθj+1 = 9(θ0θ1 + θ1θ2)

    = 9(− 0.4 + (−0.4)(0.4)

    )= −5.04

    R(2) = 9

    2−2∑

    j=0

    θjθj+2 = 9(θ0θ2) = 9(0.4) = 3.6.

    Entonces la FAC es

    ρ(0) = 1, ρ(1) = − 5.0411.88

    = −0.42, ρ(2) = 3.611.88

    ρ(3) = ρ(4) = · · · = 0

  • 92

    0 1 2 3 4

    −0.4

    −0.2

    0.00.2

    0.40.6

    0.81.0

    True ACF

    Lag

    True A

    CF

    Figura 6.1: Función de Autocorrelación.

    Ejercicio 6.2.1. Encuentre la FAC de

    1. Yt = εt − 0.5εt−1 − 0.5εt−2.

    2. Yt = εt + 0.6εt−1 − 0.3εt−2 − 0.1εt−3.

    Conclusión De acuerdo con (6.5), si la fac muestral de una serie Yt termina abruptamente

    puede tratarse de unMA(q). Por ejemplo, en la siguiente gráfica 6.2 serı́a factible un modelo

    MA(3).

    0 5 10 15

    0.0

    0.4

    0.8

    Lag

    ACF

    Series MA.3

    Figura 6.2: FAC muestral de un MA(3).

    Definición 6.2.3 (Función de Autocorrelación Parcial (facp)). Suponga que (Yt, t ∈ Z)es estacionaria. La facp es una función de k, α(k), k = 1, 2, . . . definida por

    1. α(1) = ρ(1)

    2. α(k) = Corr(ε1, εk) donde

    ε1 = Y1 − E(Y1|Y2, . . . , Yk−1)εk = Yk −E(Yk|Y2, . . . , Yk−1), k = 2, . . .

  • 93

    Y la facp muestral se define por α̂(k)

    1. α̂(1) = ρ̂(1)

    2. α̂(2) : se regresa Yt sobre Yt−1 y Yt−2 tal que Yt = φ21Yt−1 + φ22Yt−2 + εt entonces

    α̂(2) = φ̂22

    3. α̂(k) : se regresa Yt sobre Yt−1, . . . , Yt−k tal que Yt = φk1Yt−1 + · · ·+φkkYt−k + εtentonces α̂(k) = φ̂kk

    La facp de un proceso Yt ∼ MA(q) se puede encontrar si se asume la condición deinvertibilidad para un MA(q)

    6.2.2. Condición de Invertibilidad del Proceso MA(q)

    Definición 6.2.4. Dado un proceso MA(q), Yt = θq(L)(εt) donde θq(L) = 1+θ1L+θ2L2+

    · · ·+ θqLq, entonces considerando el polinomio en z ∈ C, θq(z) = 1 + θ1z + · · ·+ θqzq ysus q raı́ces (z1, z2, . . . , zq) ∈ C, es decir, valores z ∈ C tales que θq(z) = 0, se dice que elproceso Yt es invertible si se cumple

    |zj| > 1, ∀j = 1, . . . , q, (6.6)

    o también, si θq(z) 6= 0, ∀z, |z| ≤ 1. Note que (6.6) es equivalente a

    1

    |zj|< 1, ∀j = 1, . . . , q

    es decir, los inversos de las raı́ces deben caer dentro del cı́rculo unitario complejo.

    Ejemplo 6.2.2. Sea Yt ∼MA(a) tal que

    Yt = εt − 0.4εt−1 + 0.4εt−2, (6.7)

    veamos si Yt es invertible. Hallamos las raı́ces del polinomio θq(z)

    θ2(z) = 1− 0.4z + 0.4z2 = 0,

    z =0.4±

    √0.42 − 4(0.4)(1)2(0.4)

    =1

    2± 1

    2

    10

    4

    √4

    10

    √4

    10− 4 = 1

    2± 1

    2

    √10

    2

    √−36

    10

    =1

    2± 1

    2

    √10

    2

    √36

    10i =

    1

    2± 3

    2i

  • 94

    por tanto

    |z| =

    √(1

    2

    )2+

    (±3

    2

    )2=

    √1

    4+ 9 > 1,

    luego Yt es invertible.

    6.2.3. Función facp de un Proceso MA(q) invertible

    Suponga un proceso Yt ∼MA(q) invertible,

    Yt = θq(L)(εt). (6.8)

    Considere θq(z) = 1+ θ1z+ · · ·+ θqzq entonces θq(z) 6= 0, |z| ≤ 1, luego la función 1θq(z)tiene desarrollo es serie de Taylor alrededor de z = 0, dado por

    1

    θq(z)= 1 + ψ1z + ψ2z

    2 + . . . =

    ∞∑

    j=0

    ψjzj, ψ0 = 1, (6.9)

    con∑∞

    j=0 ψ2

  • 95

    0 5 10 15 20

    0.0

    0.4

    0.8

    True ACF

    Lag

    True

    AC

    F

    (a) FAC

    5 10 15 20

    −0.

    20.

    20.

    61.

    0

    True PACF

    Lag

    True

    PA

    CF

    (b) FACP

    Figura 6.3: FAC y FACP de un MA(3).

    6.2.4. Implementación en R

    En R para identificar se usan las funciones acf y pacf y para estimar una de las funciones

    usadas es arma de la librerı́a tseries.

    Ejemplo 6.2.3. library(forecast,tseries)

    n = 300

    theta = c(-1,-0.4,-0.4)

    (Mod(polyroot(theta)))

    y = arima.sim(list(order=c(0,0,2), ma=theta[2:3]), n=n, sd=sqrt(2.3))

    layout(1:3)

    ts.plot(y)

    acf(y,30)

    pacf(y,30)

    # Estimación: Función arma librerı́a tseries

    modelo.y = arma(x=y, order=c(0,2))

    summary(modelo.y)

  • 96

    0 5 10 15 20 25 30

    0.0

    0.6

    Lag

    AC

    F

    Series y

    (a) FAC

    5 10 15 20

    −0.1

    0.2

    0.4

    Lag

    Pa

    rtia

    l A

    CF

    Series y

    (b) FACP

    Figura 6.4: FAC y FACP del Ejemplo.

    pred.y = predict(modelo.y, n.ahead=2)

    plot(seq(1,9,1), c(tail(y), pred.y$pred), type=’b’)

    points(seq(7,9,1), pred.y$pred, type=’b’, col=’red’)

    6.3. Procesos Autoregresivos de Orden p, AR(p)

    Definición 6.3.1 (Proceso AR(p)). Se dice que Yn, n ∈ Z sigue un proceso AR(p) si

    Yn = ϕ1Yn−1 + ϕ2Yn−2 + · · ·+ ϕpYn−p + εn, (6.12)

    donde εn ∼ RB(0, σ2). Usando el operador de rezago L se puede escribir (6.12) como

    ϕp(L)(Yn) = εn, (6.13)

    con ϕp(z) = 1− ϕ1z + ϕ2z2 + · · ·+ ϕpzp, z ∈ C, el polinomio autorregresivo.

    Condición Suficiente para que un AR(p) sea Estacionario

    La condición suficiente para que Yt ∼ AR(p) sea estacionario en covarianza es que las praı́ces del la ecuación ϕp(z) = 0, z1, z2, . . . , zp cumplan

    |zi| > 1 (6.14)

    donde ϕp(z) es el polinomio caracterı́stico del AR(p) definido por

  • 97

    ϕp(z) = 1− ϕ1z − ϕ2z2 − · · · − ϕpzp, z ∈ C, (6.15)

    Nótese que si zj = aj ± ibj entonces |zj| =√a2j + b

    2j . La condición (6.14) no es, sin

    embargo, necesaria. En palabras, la condición (6.14) se describe como “ para que un proceso

    autoregresivo de orden p sea estacionario en covarianza, es suficiente que las raı́ces del

    polinomio autorregresivo estén por fuera del cı́rculo unitario”. El cı́rculo unitario aparece en

    la Figura 6.5. En esta figura se observa la posición de la raı́z zj y su conjugado z̄j .

    � ��

    ��

    �������

    �������

    Figura 6.5: Cı́rculo Unitario

    6.3.1. Algunas Propiedades de los Procesos AR(p) Estacionarios

    Proposición 6.3.1. Para un proceso Yt ∼ AR(p), definido en (6.12), se tieneE(Yt) = 0.

    Demostración. Si Yt es estacionario en covarianza entonces E(Yt) = µ. Además,

    E(Yt) = ϕ1E(Yt−1) + ϕ2E(Yt−2) + · · ·+ ϕpE(Yt−p) + 0,

    pero todas las esperanzas son µ luego

    µ = ϕ1µ+ ϕ2µ+ · · ·+ ϕpµ.

    Si µ 6= 0 entonces

    1 = ϕ1 + · · ·+ ϕp

    por tanto

    ϕp(1) = 0

  • 98

    lo cual es una contradicción (→←), ya que ∀ z ∈ C, |z| ≤ 1 entonces

    ϕp(z) 6= 0.

    luego debe tenerse que µ = 0, es decir, el proceso definido en (6.12) es de media cero.

    Un proceso Yt ∼ AR(p) con E(Yt) = µ 6= 0 se define como

    ϕp(L)(Yt) = ϕ0 + εt, (6.16)

    donde

    ϕ0 = ϕp(L)(µ)

    = (1− ϕ1 − ϕ2 − · · · − ϕp)µ.

    Nótese que también se puede escribirYt = (1−ϕ1−· · ·−ϕp)µ+ϕ1Yt−1+· · ·+ϕpYt−p+εt,de donde Yt − µ = ϕ1(Yt−1 − µ) + · · ·+ ϕp(Yt−p − µ) + εt. Es decir, el proceso (Yt − µ)es AR(p) de media cero.

    La Función de Autocovarianza de los Procesos AR(p)

    La función de autocovarianza de un proceso Yt ∼ AR(p) estacionario en covarianza, R(k)se puede calcular resolviendo una ecuación recursiva lineal denominada, en plural, las

    ecuaciones de Yule–Walker.

    Proposición 6.3.2. Suponga un proceso AR(p), Yn =∑p

    j=1 ϕjYn−j + εt, que satisface la

    condición de estacionario en covarianza ((6.14)). Su función fac R(k) satisface la ecuación

    recursiva

    R(k) =

    p∑

    j=1

    ϕjR(k− j), k = 1, 2, . . . . (6.17)

    denominada, en plural, Ecuaciones de Yule–Walker.

    Demostración. Colocando µ = E(Yn), como Yn =∑p

    j=1 ϕjYn−j + εn, al tomar esperanza

    en ambos miembros se obtiene µ =∑p

    j=1 ϕjµ+ 0. Restando las expresiones anteriores se

    obtieneYn−µ =∑p

    j=1 ϕj(Yn−j −µ)+εn. Multiplicando ambos miembros de la identidadanterior por Yn−k − µ, con k ≤ n, y tomando valor esperado E(.) se obtiene

    R(k) = E((Yn − µ)(Yn−k − µ))

  • 99

    =

    p∑

    j=1

    ϕE((Yn−j − µ)(Yn−k − µ)) + E(εn(Yn−k − µ))

    =

    p∑

    j=1

    ϕjR(k − j).

    En el resultado anterior se tiene E(εn(Yn−k − µ)) = 0 porque, a partir de la definición delprocesoYn en (6.12),Yn−k depende de εs con s ≤ n−k, que son variables incorrelacionadascon εn.

    La Varianza de los Procesos AR(p)

    Si Yt ∼ AR(p) de media cero, estacionario en covarianza entonces ϕp(L)(Yn) = εn, paraεn ∼ RB(0, σ2). Además, se cumple que ∀z, |z| ≤ 1 ϕp(z) 6= 0 entonces el cociente 1ϕp(z)se puede desarrollar en serie de potencias de z, y colocar

    1

    ϕp(z)=

    ∞∑

    j=0

    ψjzj,

    para ciertos coeficientes (ψj, j = 0, 1, . . .), con ψ0 = 1. Por tanto, se puede colocar

    Yn =1

    ϕp(L)(εn) = εn + ψ1εn−1 + ψ2εn−2 + . . . . (6.18)

    Tomando varianza a ambos miembros de (6.18), se obtiene V ar(Yn) = σ2∑∞

    j=0 ψj .

    Estimación de la FAC de un AR(p)

    ρ(k) = Corr(Yt, Yt+k), k = 1, 2, . . . , p, p+ 1, . . . (6.19)

    cumple que:

    1. Se tiene un sistema lineal p× p que cumple

    A =

    1 ρ(1) · · · ρ(p− 1)ρ(1) ρ(2) · · · ρ(p− 2)ρ(2) ρ(3) · · · ρ(p− 3)

    ......

    ...

    ρ(p− 1) ρ(p− 2) · · · 1

    , ϕ =

    ϕ1

    ϕ2...

    ϕp

    , ρ =

    ρ(1)

    ρ(2)...

    ρ(p)

    ,

  • 100

    entonces

    Aϕ = ρ. (6.20)

    Luego dada ρ̂(1), . . . , ρ̂(p) se puede resolver (6.20) tomando ϕ̂ = Â−1ρ̂, los esti-

    madores de Yule-Walker de ϕ

    2.

    ρ(k) = ϕ1ρ(k − 1) + ϕ2ρ(k− 2) + · · ·+ ϕpρ(k− p), k = p, p+ 1, . . . (6.21)

    Entoces (6.21) forma una ecuación en diferencias finitas con condiciones iniciales

    ρ(1), . . . , ρ(p), para ρ(k), k ≥ p+ 1, con solución

    ρ(k) = s1gk1 + s2g

    22 + · · ·+ spgp2, (6.22)

    donde gi = 1/zi y zi es la i-ésima raı́z de la ecuación caracterı́stica

    1− ϕ1z − ϕ2z2 − · · · − ϕpzp = 0 (6.23)

    con |zi| > 1⇔ |gi| < 1, luego se debe cumplir que ρ(k)→ 0, k →∞

    Nota 6.3.1. Si gi ≈ 1, por ejemplo gi = 1− ε se tendrá sigki = si(1− ε)k y por tantoρ(k) decae a cero más lento que si gi = ε.

    0 5 10 15 20

    0.0

    0.4

    0.8

    True ACF

    Lag

    True

    AC

    F

    (a) ϕ = 0.35

    0 5 10 15 20

    0.0

    0.4

    0.8

    True ACF

    Lag

    True

    AC

    F

    (b) ϕ = 0.88

    Figura 6.6: FAC de Yt = ϕYt−1 + εt.

    FACP de los Procesos AR(p)

    La FACP de un procesos AR(p) es α(k) tal que α̂(k) es el coeficiente β̂k,k en la regresión

    Yt = β0 + βk,1Yt−1 + · · ·+ βk,kYt−k + at, k = 2 (6.24)

  • 101

    pero como βk,k = 0 si k ≥ p+ 1 entoces α̂(k) = 0 si k ≥ p+ 1

    2000−09−27 2001−02−20 2001−07−16

    4555

    65

    Figura 6.7: FACP Muestral de AR(p).

    Ejemplo 6.3.1. Sea Yt ∼ AR(2) con

    Yt = ϕ1Yt−1 + ϕ2Yt−2 + εt, εti.i.d.∼ N (0, σ2)

    Yt = 1.5Yt−1 − 0.9Yt−2 + εt,ϕ2(z) = 1− 1.5z + 0.9z2 = 0 ecuación caracterı́stica

    z = 0.83± 0, 64i, |z| = 1.054 > 1

    luego Yt es estacionario en covarianza, además

    ρ(k) = 1− 1.5ρ(k− 1) + 0.9ρ(k− 2), k ≥ 2

    ρ(0) = 1, ρ(1) =ϕ1

    1− ϕ2=

    1.5

    1.9= 0.789.

    6.3.2. Proceso AR(1)

    El proceso AR(1) se ha utilizado anteriormente por ejemplo, en la prueba Durbin-Watson.

    A continuación se desarrollan algunas de sus propiedades.

    Si Yt es un AR(1) de media µ, entonces está definido por

    Yt = ϕ0 + ϕ1Yt−1 + εt, ϕ0 = (1− ϕ1)µ, (6.25)

    donde el proceso Yt es estacionario si todas la raı́ces z de la ecuación ϕ1(z) = 0 caen

    fuera del circulo unitario |z| > 1. Luego el AR(1) es estacionario en covarianza si y solo si|ϕ1| < 1.

    Definición 6.3.2 (Marcha Aleatoria). Se dice que Yt es una marcha aleatoria (Random

    Walk) si cumple

    Yt = µ+ Yt−1 + εt, (6.26)

  • 102

    nótese que es un AR(1) con ϕ1 = 1.

    Propiedades del AR(1)

    1. E(Yt) = µ =ϕ0

    1− ϕ1

    2. Cov(Yt, Yt+k) =σ2ϕk1

    1 − ϕk1, k = 0, 1, . . .

    3. ρ(k) = ϕk1, −1 < ϕ1 < 1.

    Nota 6.3.2. Diebold [1999, pág. 138], Si Yt ∼ AR(1) de media cero estacionario encovarianza entonces

    Yt = ϕ1Yt−1 + εt, εt ∼ R.B.(0, σ2)

    es decir

    (1− ϕ1L)Yt = εt

    y se puede escribir como

    Yt =1

    1− ϕ1Lεt,

    si se cumple que

    f(z) =1

    1− ϕ1z=

    ∞∑

    j=0

    ϕj1zj = 1 + ϕ1z + ϕ

    21z

    2 + . . .

    por que |ϕ1 z| < 1 ya que |ϕ1| < 1 y |z| < 1. Entonces

    Yt = εt + ϕ1εt−1 + ϕ21εt−2 + . . . ,

    y como los εt son incorrelacionados

    V ar(Yt) = σ2 + ϕ1σ

    2 + ϕ21σ2 + . . .

    = σ2(1 + ϕ1 + ϕ21 + . . . ) = σ

    2

    (1

    1− ϕ1

    )Varianza Incondicional

    Nota 6.3.3. Si Yt ∼ AR(1) de media cero estacionario en covarianza entonces

    E(Yt|Yt−1) = E(ϕ1Yt−1 + εy|Yt−1) = ϕ1Yt−1,

    y si se asume que εt son independientes de yt−1, Yt−2, . . .

    V ar(Yt|Yt−1) = V ar(ϕ1Yt−1 + εt|Yt−1)= ϕ21V ar(Yt−1|Yt−1) + V ar(εt) = σ

    2 Varianza Condicional

  • 103

    6.4. Procesos Autoregresivos y de Medias Móviles ARMA(p,q)

    Si en un proceso Yt ∼ AR(p)

    Yt − ϕ1Yt−1 − ϕ2Yt−2 − · · · − ϕpYt−p = εt, εt ∼ R.B.(0, σ2), (6.27)

    se cambia εt por un modeloMA(q), Zt = εt + θ1εt−1 + · · ·+ θqεt−q entonces (6.27) queda

    Yt − ϕ1Yt−1 − · · · − ϕpYt−p = εt + θ1εt−1 + · · ·+ θqεt−q , (6.28)

    donde εt ∼ RB(0, σ2). El efecto de este cambio es que los errores no se toman incorrela-cionados sino con autocorrelación débil. Se define entonces un proceso ARMA(p,q) como

    un modelo que combina las propiedades de memoria larga de los AR(p) con las propiedades

    de ruido débilmente autocorrelacionado en los MA(q), y que tiene suficiente flexibilidad y

    parsimonia. Usando la notación del operador de rezago (6.28) se puede definir el proceso

    ARMA(p, q) por

    Definición 6.4.1. Un proceso Yt ∼ ARMA(p, q) se define mediante la ecuación (6.28), otambién por

    ϕp(L)(Yt) = θq(L)(εt), t ∈ Z, (6.29)

    donde εt ∼ RB(0, σ2), y ϕp(z) = 1 −∑p

    j=1 ϕjzj , θq(z) = 1 +

    ∑qj=1 θjz

    j son los

    polinomios autoregresivo y de media móvil respectivamente.

    Las condiciones de estacionariedad de la parte AR(p) y de invertibilidad de la parte MA(q)

    se asumen en el modelo ARMA(p,q), (6.29). Por lo tanto, se asume que las raı́ces de las

    ecuaciones ϕp(z) = 0 y θq(z) = 0 están fuera del cı́rculo unitario. Además se asume que

    estos polinomios no tienen raı́ces en común. Si se cumplen estas condiciones el proceso

    Yt ∼ ARMA(p, q) es estacionario e identificable.

    Ejemplo 6.4.1. Sea Yt ∼ ARMA(1, 1) dado por

    ϕ1(L)(Yt) = θ1(L)(εt) (6.30)

    donde ϕ1(L) = 1−ϕL y θ1(L) = 1 + θL. Es decir Yt = ϕYt−1 + εt + θεt−1. Si |ϕ| < 1 y|θ| < 1 es estacionario e invertible. Por ejemplo

    Yt = 0.9Yt−1 + εt − 0.4εt−1,

    con εt ∼ RB(0, σ2)

  • 104

    Ejemplo 6.4.2. Consideremos un modelo de descomposición con tendencia lineal y esta-

    cionalidad de perı́odo 12, modelada por variables indicadoras donde el residuo estructural

    es un proceso ARMA(1, 1). Entonces el modelo se escribe como el sistema de dos ecua-

    ciones siguiente.

    Yt = β0 + β1t+

    11∑

    j=1

    δjIj(t) + εt,

    εt = ϕεt−1 + at + θat−1,

    con at ∼ RB(0, σ2), el residuo del proceso arma. Nótese que el número de parámetros deeste modelo es 16, incluyendo la varianza σ2.

    Ejemplo 6.4.3. Considere el proceso Yt ∼ ARMA(2, 1) dado por

    Yt = 2 +1− 0.4L

    1− 1.5L+ 0.9L2 εt, εt ∼ R.B.(0, σ2)

    osea

    Yt = 2(1− 1.5 + 0.9) + 1.5Yt−1 − 0.9Yt−3 + εt − 0.4εt−1

    con ecuación caracterı́stica

    1− 1.5z + 0.9z2 = 0

    y sus raı́ces dadas por

    z =1.5±

    √1.52 − 4(0.9)2(0.9)

    = 0.83± 0.645i

    por tanto

    |z| = 1.05 > 1

    es un proceso estacionario en covarianza e invertible.

    6.4.1. Propiedades de los Modelos ARMA

    1. Suponga Yt ∼ ARMA(p, q) entonces E(Yt) = 0. Si el proceso es estacionarioentonces se puede expresar θq(z)/ϕp(z) =

    ∑∞j=0 ψjz

    j conψ0 = 1 y∑∞

    j=0 |ψj|

  • 105

    por tanto

    E(Yt) = E(εt + ψ1εt−1 + ψ2εt−2 + . . . ) = 0.

    2. En caso de ser E(Yt) = µ 6= 0 se coloca

    Yt = µ+θq(L)

    ϕp(L)εt (6.31)

    de donde ϕp(L)Yt = ϕp(1)µ + θq(L)εt. Por ejemplo, sea Yt ∼ ARMA(1, 1) conE(Yt) = µ entonces

    Yt = µ+1 + θL

    1− ϕLεt

    luego

    (1− ϕL)Yt = (1− ϕL)µ+ (1− θL)εt

    pero (1− ϕL)µ = µ− ϕµ = (1− ϕ)µ, luego

    Yt = (1− ϕ)µ+ ϕYt−1 + εt + θεt−1.

    3. La función de autocovarianza de un proceso Yt ∼ ARMA(p,q) estacionario de mediacero. Si se indica por R(k) = Cov(Yt, Yt+k) su función de autocovarianza, para

    k = 0, 1, . . . un método para calcular esta función se basa en la representación

    ϕp(L)Yt = θq(L)εt, con θq(z)/ϕp(z) =∑∞

    j=0 ψjzj . Multiplicando ambos miembros

    por Yt−k y tomando esperanza E(.) se obtienen las ecuaciones recursivas siguientes,

    similares a las ecuaciones Yule-Walker para AR(p), (6.17). Defina n = max(p, q+1),

    R(k)−ϕ1R(k−1)−. . .−ϕpR(k−p) =

    σ2∑q

    j=k θjψj−k, si k = 0, 1, . . . , n− 10, si k = n, n+ 1, . . . .

    (6.32)

    Ejemplo 6.4.4. (tomado de Brockwell and Davis [2002], pag. 93). Considere el

    proceso ARMA(2,1) dado por (1−L+ 14L2)Yt = (1+L)εt. Entoncesn = max(p, q+1) = 2, por tanto, para k = 0, 1 se tiene el sistema lineal

    R(0)− R(1) + 14R(2) = σ2(ψ0θ0 + ψ1θ1) = σ

    2(1 + ψ1),

    R(1)− R(0) + 14R(1) = σ2(θ1ψ0) = σ

    2ψ0 = σ2. (6.33)

  • 106

    Para calcular los coeficientes (ψj, j = 0, 1, . . .) se puede utilizar la función de

    R, ARMAtoMA(a,b,m), la cual calcula los coeficientes ψj, j = 1, 2, . . . , m,

    dados los vectores a = (ϕ1, . . . , ϕp) y b = (θ1, . . . , θq). Entonces, escribiendo

    ARMAtoMA(c(1.0, -0.25), 1.0, 10), se obtiene el vector

    [1] 2.00000000 1.75000000 1.25000000 0.81250000 0.50000000

    [6] 0.29687500 0.17187500 0.09765625 0.05468750 0.03027344

    de donde ψ1 = 2. Usando la segunda ecuación de (6.32), se obtiene R(2) = R(1)−14R(0), luego, reemplazando en el sistema (6.33), y resolviendo, se obtienen R(0) =

    32σ2/3, R(1) = 28σ2/3. Utilizando la segunda ecuación de (6.32),

    R(k) = R(k − 1)− 14R(k − 2), k = 2, 3, . . .

    se puede calcular la autocovarianza recursivamente.

    4. La varianza de un proceso Yt ∼ ARMA(p,q) estacionario de media cero. Es evidenteque a partir de la primera ecuación en (6.32) se puede definir un sistema lineal una de

    cuyas incógnitas es R(0), la cual se resuelve en función de σ2.

    6.4.2. Librerı́as para identificación, estimación y pronósticos de modelos AR-

    MA

    El plan de análisis con procesos ARMA consiste en

    1. Identificar el modelo ARMA(p,q).

    2. Estimar el modelo.

    3. Chequeo del ajuste del modelo a los datos.

    4. Pronósticos con el modelo. O simulación del modelo.

    Algunas de las librerı́as y funciones a utilizar para este análisis son

    1. stat, con la función arima(), estima primero por mı́nimos cuadrados condicionales y

    luego por máxima verosimilitud.

    2. tseries, con la función arma(), estima mediante mı́nimos cuadrados condicionales.

    3. forecast, con la función auto.arima(), para identificación de modelos ARIMA.

  • 107

    4. FitAR, FitARMA, para estimación de AR(p) y ARMA(p,q).

    5. timsac, con la función autoarmafit(), para identificación del modelo ARMA(p,q) con

    menor AIC. El programa asume que el modelo ARMA(p,q) se define con θq(z) =

    1 −∑qj=1 θjzj , es decir, los coeficientes θj se cambian de signo en esta librerı́a.También tiene la función armafit() para ajuste de modelos ARMA.

    6.4.3. Identificación de modelos ARMA

    No es fácil identificar los modelos ARMA(p, q) mediante la FAC y FACP. Si (q ≥ p ≥ 1)entonces para (k ≥ q + 1) se cumple (6.21) y para 1 ≤ k ≤ p− 1, ρ(k) no tiene un patróngeneral, luego la FAC muestral presenta un patrón definido solamente para k ≥ q + 1.

    ������

    ������������

    Figura 6.8: Fac Muestral de ARMA(p, q).

    Una alternativa consiste en buscar una pareja de órdenes (p, q) dentro de un rango inicial,

    por ejemplo p, q = 0, 1, . . . , 10, que minimice alguna función de ε̂2, como por ejemplo el

    AIC ó el BIC.

    6.4.4. Estimación de modelos ARMA

    La estimación de procesos Yt ∼ ARMA(p,q) se basa en un supuesto: que el vector Y =(Y1, . . . , Yn)

    ′ se distribuye Normal multivariado con media µ, y matriz de covarianzas

    Σ = [Cov(Yi, Yj)]n×n. Como el proceso se asume estacionario, se cumple Cov(Yi, Yj) =

    R(j − i), donde R(k) es la función de autocovarianza de Yt. La forma de Σ es la de una

  • 108

    matriz tipo Toeplitz: las diagonales descendentes son constantes:

    Σ =

    R(0) R(1) · · · R(n− 1)R(1) R(0) · · · R(n− 2)R(2) R(1) · · · R(n− 3)

    ......

    ...

    R(n− 1) R(n− 2) · · · R(0)

    . (6.34)

    Por ejemplo, para Yt un AR(p),R(k) se calcula mediante las ecuaciones Yule-Walker, (6.17),

    R(k) = µ+∑p

    j=1 ϕjR(k − j). Por tanto, colocando β = (µ, σ2, ϕ1, . . . , ϕp, θ1, . . . , θq)′,la matriz Σ depende del vector β, y se escribe Σ(β). Este supuesto permite implementar la

    estimación por máxima verosimilitud. Se escribe la densidad Normal Multivariada como

    f(y, β) =1

    (2π)n/2√det(Σ(β))

    exp

    (−1

    2(y − µ)Σ(β)−1(y − µ)′

    )(6.35)

    dondeµ = (µ, . . . , µ)′ ∈ Rn. La función de log-verosimilitud se define a partir del logaritmode la densidad (6.35), log(f(y, β)), y está dada por

    L(β) :=

    n∑

    j=1

    log f(yj, β)

    = −n2

    log(2π)− 12

    log det(Σ(β))− 12(y − µ)′Σ(β)−1(y − µ). (6.36)

    El estimador ML de máxima verosimilitud de β se define como

    β̂ = argminβ

    (−L(β)). (6.37)

    La identificación con base en el AIC se basa en comparar varios modelosARMA(p, q) para

    valores de, por ejemplo, p = 0, 1, . . . , 20 y p = 0, 1, . . . , 20 con base en el criterio AIC el

    cual está definido por

    AIC = −2L(β̂) + 2k, k = p+ q (6.38)

    Entonces identifica un posible modelo parsimonioso escogiendo el modelo con el mı́nimo

    AIC.

    Ejemplo 6.4.5. Suponga que se requiere simular un ARMA(3, 2) tal que se escogen las

    raı́ces de ϕ3(z) y θ2(z), con inversos dentro del cı́rculo unitario.

  • 109

    z1 = complex(3)

    z1[1] = -0.8 - 1.3i

    z1[2] = conj(z1[1])

    z1[3] = 1.2

    Entonces ϕ3(z) = 1− ϕ1z − ϕ2z2 − ϕ3z3

    (z-z1[1])(z-z1[2])(z-z1[3])

    = −2.796 + 0.41z + 0.4z2 + z3 polinomio mónico

    -z1[1]z1[2]z1[3] = -2.2796

    a = poly.calc(z1)

    a = a/a[1]

    z2 = complex(2)

    z2[1] = -1.2 -0.5i

    z2[2] = conj(z2[1])

    b = poly.calc(z2)

    b = b/b[1]

    n = 300

    y = arima.sim(list(order=c(3,0,2), ar=-a[2:4], ma=b[2:3]), n=n,

    sd=sqrt(0.3))

    require(forecast)

    auto.arima(y)

    y1 = arima.sim(list(order=c(3,0,2), ar=-a[2:4], ma=b[2:3]), n=n,

    sd=sqrt(0.3), randgeb = function(n,...))

    auto.arima(y1)

    stats::arima(y1)

    mod1 = stats::arima(y1, c(3,0,2))

    py1 = predict(mod1, n.ahead=20)

    plot(1:70, c(y[(3200-49):3200],py1$pred),

  • 110

    ylim=c(min(py1$pred-1.64*py1$se),max()), type=’b’, col=2)

    points(51:70,py1$pred, type=’b’, col=’blue’)

    points(51:70, py1$pred+1.64*py1$se, type=’l’, col=’blue’)

    points(51:70, py1$pred-1.64*py1$se, type=’l’, col=’blue’)

    6.4.5. Pronósticos con modelos ARMA