Post on 14-Feb-2019
I BISNONNI
Di seguito le componenti stocastiche e(t), t =1,2, ..., T sono v.c. di Gauss con Valore attesonullo e varianza σ2 e stocasticamente indipen-denti
MODELLO DI MISURA (LA BISNONNA) MA(0)
y(t) = c+ e(t)
MODELLO DI REGRESSIONE CLASSICO X(nb)(IL BISNONNO)
y(t) = c+ b0x(t) + e(t)
y(t) = c+nb∑i=0
bix(t− i) + e(t)
1
I NONNI
MODELLO MA(nc) (la nonna)
y(t) =
c+ e(t) + c1e(t− 1) + c2e(t− 2) + ...+ cnce(t− nc)
MODELLO AR(na) (il nonno)
y(t) =
c+ a1y(t− 1) + a2y(t− 2) + ..+ anay(t− na) + e(t)
2
I NIPOTI
MODELLO ARX(na, nb) (ARX sta per AR+X)
y(t) =
= c+ a1y(t− 1) + a2y(t− 2) + ......+ anay(t− na)+
+b0x(t) + b1x(t− 1) + ...+ bnbx(t− nb) + e(t)
MODELLO ARMA(na, nc) (ARMA )
y(t) =
= c+ a1y(t− 1) + a2y(t− 2) + ......+ anay(t− na)+
+e(t) + c1e(t− 1) + c2e(t− 2) + ...+ cnce(t− nc)
3
MODELLO ARMAX(na, nb, nc) (AR+MA+X)
y(t) =
c+ a1y(t− 1) + a2y(t− 2) + ......+ anay(t− na)+
+b0x(t) + b1x(t− 1) + ...+ bnbx(t− nb)+
+e(t) + c1e(t− 1) + c2e(t− 2) + ...+ cnce(t− nc)
I parametri del modello sono
c
ai, i = 1,2, ....., na
bi, i = 0,1,2, ....., nbci, i = 1,2, ....., nc
σ2 = E(e(t)2)
4
MODELLO ARARMAX(na, nb, nc, nd)
Modello autoregressivo con errori ARMA
y(t) =
= c+ a1y(t− 1) + a2y(t− 2) + ......+ anay(t− na)+
+b0x(t) + b1x(t− 1) + ...+ bnbx(t− nb) + z(t)
z(t) = d1z(t− 1) + d2z(t− 2) + ......+ dndz(t− nd)+
+e(t) + c1e(t− 1) + c2e(t− 2) + ...+ cnce(t− nc)
5
I parametri del modello sono
c
ai, i = 1,2, ....., na
bi, i = 0,1,2, ....., nbci, i = 1,2, ....., nc
di, i = 1,2, ....., ndσ2 = E(e(t)2)
6
NOTAZIONE OPERATORE DI Lag
L : x(t− 1) = Lx(t)
Lg : x(t− g) = Lgx(t)
OPERATORE INVERSO DI Lag
L−1 : x(t) = L−1x(t− 1)
IPOTESI DI STAZIONARIETA’ DEBOLE
valore atteso e varianza indipendenti da t ecovarianza dipendente solo dal lag
E(x(t)) = E(Lx(t))
var(x(t)) = var(Lx(t))
cov(x(t), Llx(t)) = γl
7
COEFFICENTE DI AUTOCORRELAZIONE
ρl =corr(x(t), Llx(t))
var(x(t))
stimatore
rl =
∑Tt=l(x(t)− x)(x(t− l)− x)∑T
t=1(x(t)− x)2
due strumenti importanti: Funzione di Au-
tocorrelazione empirica e Funzione di Autocor-
relazione teorica
tabella calcolo autocodevianze
lag 0 lag 1 .. lag lx(1) .. .. ..x(2) x(1) .. ..x(3) x(2) .. .... .. .. ..
x(t+l) x(t+l-1) .. x(t).. .. .. ..
x(T) x(T-1) .. x(T-l)
8
OPERATORE POLINOMIALE DI TRASFER-
IMENTO
G(L) = g0 + g1L+ ....+ gngLng
G(L)x(t) = g0x(t) + g1x(t− 1) + ...+ gngx(t− ng)
POLINOMIO ASSOCIATO a G(L)
g0z + g1z1 + ...+ gngz
ng
le radici devono essere esterne al cerchio uni-
tario (in modulo maggiori di uno)
9
esempio (AR(1)):
y(t) = aLy(t) + e(t)
(1 +n∑i=1
aiLi)y(t) = (1 +n∑i=1
aiLi)(aLy(t) + e(t))
y(t) = an+1Ln+1y(n) +n∑i=0
aiLie(t)
Se a < 1 e y(t) < k si ricava:
y(t) =∞∑i=0
aiLie(t) =∞∑i=0
aie(t−i) =1
(1− aL)e(t)
10
esempio (AR(1)): G(L) = 1− aL. Se a < 1 e
y(t) < k ∀t si ha
G−1(L) =1
(1− aL)=
∞∑i=0
aiLi
quindi da
G(L)y(t) = y(t)− ay(t− 1) = e(t)
segue
y(t) =∞∑i=0
aiLie(t) =∞∑i=0
aie(t− i)
Da cui si ricava E(y(t)) = 0, V ar(y(t)) =1
1−a2σ2, ρl = al.(STAZIONARIETA’)
11
Presenza di Trend :
Si consideri il modello di regressione con errori
arma
y(t) = k+ b∗ · t+ z(t)
z(t) = a1z(t− 1) + a2z(t− 2) + ......+ apz(t− p)+
+e(t) + c1e(t− 1) + c2e(t− 2) + ...+ cqe(t− q)
per p=1 e q= 0 si ha il caso semplice ma notev-
ole:
y(t) = k+ b∗ · t+ z(t)
z(t) = a · z(t− 1) + e(t)
che a seconda se |a| < 1 o |a| = 1 equivale ai
seguenti modelli:
12
Trend deterministico: Con |a| < 1 sia:
y(t)−k−b∗ · t = a(y(t−1)−k−b∗ ·(t−1))+e(t)
che ponendo c = (1− a)k+ ab∗, b = b∗(1− a),
puo essere riscritto:
y(t) = c+ b · t+ ay(t− 1) + e(t)
Il modello e chiamato anche AR(1) trend stazionario
Trend stocastico: per |a| = 1 il precedente
modello diviene
y(t) = b∗ + y(t− 1) + e(t)
detto anche random walk con drift Rispetto
a un modello con trend deterministico quello
con trend stocastico puo presentare deviazioni
marcate da un trend lineare per periodi molto
lunghi e comunque presenta andamenti pi ir-
regolari. Il problema della previsione di lungo
periodo in presenza di trend stocastico e piu
critico.
13
Modelli di riferimento per Tests per la pre-senza di una radice unitaria:
Random walk
y(t) = y(t− 1) + e(t)
ovvero
y(t) = y(0) +t−1∑i=0
e(t)
Random walk + drift
y(t) = b∗ + y(t− 1) + e(t)
ovvero
y(t) = y(0) + b∗t+t−1∑i=0
e(t)
random walk + drift+trend
y(t) = b∗ + β · t+ y(t− 1) + e(t)
ovvero
y(t) = y(0) + b∗t+ βt(t+ 1)
2+
t−1∑i=0
e(t)
14
Working models per Tests per la presenzadi una radice unitaria:
modello 3
y(t) = b∗ + β · t+ πy(t− 1) + e(t)
ovvero se τ = π − 1
y(t)− y(t− 1) = b∗ + β · t+ τy(t− 1) + e(t)
modello 2
y(t) = b∗ + πy(t− 1) + e(t)
ovvero se τ = π − 1
y(t)− y(t− 1) = b∗ + τy(t− 1) + e(t)
modello 1
y(t) = πy(t− 1) + e(t)
ovvero se τ = π − 1
y(t)− y(t− 1) = τy(t− 1) + e(t)
I test per una radice unitaria sono test inerentib∗, β, τ nei precedenti working models.
15
Tests per la presenza di una radice uni-
taria:
1-si stima il modello tre si verifica H30 : τ =
0 se rifiutata si conclude NON c’e radice
unitaria se accettata si mantiene ipotesi radice
unitaria (per ora) e si verifica H300 : τ = β = 0
se rifiutata si conclude SI c’e radice unitaria
altrimenti si passa a stadio successivo
2-si stima il modello due e si verifica H20 : τ =
0 se rifiutata si conclude NON c’e radice
unitaria se accettata si mantiene ipotesi radice
unitaria (per ora) e si verifica H200 : τ = b∗ = 0
se rifiutata si conclude SI c’e radice unitaria
altrimenti si passa a stadio successivo
3- si stima modello uno e si verifica H10 : τ = 0
se accettata c e radice unitaria altrimenti non
c’e radice unitaria.
16
ATTENZIONE 1 le statistiche test utilizzate
per verificare le ipotesi sui parametri τ, β, b∗
hanno la stessa espressione algebrica di quelle
usate nei problemi di verifica di ipotesi su parametri
di un modello di regressione ma la loro dis-
tribuzione NON E’ di tip T o F (vedi R-
package urca )
ATTENZIONE 2 prima di procedere control-
lare che i residui del modello3 stimato siano
”rumore bianco” altrimenti si aggiunga ai mod-
elli 1-3 una componente
p∑i=1
αi(y(t− i)− y(t− i− 1))
con p ≥ 1 sufficiente a sbiancare i residui del
modello tre stimato. Si applichi quindi la prece-
dente procedura ai modelli 1-3 cosı modificati
(ovviamente i parametri αi saranno stimati ma
non saranno oggetto di verifica di ipotesi. Si
veda il package urca).
17
esempio (AR(2)):
y(t) = a1y(t− 1) + a2y(t− 2) + e(t)
(1− a1L− a2L2)y(t) = e(t)
(1− (λ1 + λ2)L+ λ1λ2L2)y(t) = e(t)
essendo λ1 + λ2 = a1, λ1λ2 = −a2.
Quindi
(1− λ1L)(1− λ2L)y(t) = e(t)
e usando il risultato su modello AR(1) se λ1, λ2
sono in modulo minori di uno e y(t) < k:
y(t) =1
(1− λ1L)
1
(1− λ2L)e(t) =
= (∞∑i=0
λi1Li)(
∞∑i=0
λi2Li)e(t) =
=∞∑i=0
ψie(t− i)
18
RADICI z1, z2 POLINOMIO associato ad AR(2)
(1− a1z − a2z2) = (1− λ1z)(1− λ2z)
quindi
λ1 = z−12
λ2 = z−11
z1, z2 in modulo maggiori di uno
λ1, λ2 in modulo minori di uno
19
z1 =a1 +
√a21 + 4a2
−2a2
z2 =a1 −
√a21 + 4a2
−2a2
λ1 =a1 +
√a21 + 4a2
2
λ2 =a1 −
√a21 + 4a2
2
caso radici complesse
λ1 =a12
+i√−a21 − 4a2
2=a12
+ ib
λ1 =a12−i√−a21 − 4a2
2=a12− ib
20
se cos(θ) = a\√a2 + b2
λj1 =
√a2 + b2j(cos(θj) + i sin(θj))
λj1 =
√a2 + b2j(cos(θj)− i sin(θj))
21
esempio AR(na):
y(t) =
= a1y(t− 1) + a2y(t− 2) + ...+ anay(t− na) + e(t)
ovvero
(1− a1L− a2L2 − ...− anaL
na)y(t) = e(t)
[(1− λ1L)(1− λ2L)...(1− λnaL)]y(t) = e(t)
Ora se il polinomio
(1− a1z − a2z2 − ...− anaz
na)
ha radici esterne al cerchio unitario o equiva-
lentemente se
(1− λ1z)(1− λ2z)...(1− λnaz)
22
ha radici interne al cerchio unitario si ottiene:
y(t) =1
(1− λ1L)
1
(1− λ2L)...
1
(1− λnaL)e(t) =
=1
(1− a1L− a2L2 − .....− anaLna)
e(t)
= [(∞∑i=0
λi1Li)(
∞∑i=0
λi2Li)...]e(t) =
=∞∑i=0
ψie(t− i)
che garantisce la stazionarieta. Segue banal-
mente che E(y(t)) = 0. e che Y(t) e incorre-
lato con e(t+ k), k > 0
funzione di autocorrelazione
γj = E(y(t)y(t− j) =
= a1E(y(t− 1)y(t− j) + a2E(y(t− 2)y(t− j)+
+.....+ E(e(t)y(t− j)
quindi
γj = a1γj−1 + a2γj−2 + ...+ anaγj−na
V ar(y(t) = a1γ1 + a2γ2 + ...+ anaγna + σ2
e per le autocorrelazioni quindi si ha:
ρj = a1ρj−1 + a2ρj−2 + ...+ anaρj−na
23
calcolo delle prime na autocorrelazioni
y(1)y(0)y(−1)
y(−na + 2)
=
=
a1 a2 .. ana−1 ana1 0 .. 0 00 1 .. 0 0
0 0 .. 0 0
y(0)y(−1)y(−2)
y(−na + 1)
+
+
e(1)00
0
24
dalla precedente uguaglianza deriva
G = FGF ′ +
σ2 0 00 0 0
0 0 0
essendo
G =
γ0 γ1 γ2 .. γna−1γ1 γ0 γ1 .. γna−2γ2 γ1 γ0 .. γna−3
γna−1 γna−2 γna−3 .. γ0
25
PRESENZA DI UNA COSTANTE
Da
(1−na∑1
aiLi)y(t) = c+ e(t)
calcolando il valore atteso e sfruttando la pro-
prieta di stazionarieta si ha
(1−na∑1
aiLi)µ = c
ovvero
(1−na∑1
ai)µ = c
e quindi
(1−na∑1
aiLi)(y(t)− µ) = e(t)
Quanto ottenuto sulla ACF continua a valere.
26
esempio (AM(1)): G(L) = 1 + cL. Se c < 1
e e(t) < k ∀t si ha
G−1(L) =∞∑i=0
(−1)iciLi
per cui se
y(t) = G(L)e(t) = e(t) + ce(t− 1)
allora
e(t) =∞∑i=0
(−1)iciLiy(t).
che comporta la INVERTIBILITA’
27
funzione di autocorrelazione per (AM(nc))
Da
y(t) = c+ e(t) +nc∑i=1
ciLie(t)
si ottiene E(Y (t) = c e senza perdita di gener-
alita supponiamo c = 0.
E’ immediato verificare che:
V ar(y(t)) = σ2(1 +nc∑i=1
c2i )
Inoltre se j ≤ nc
γj = cj + cj+1c1 + cj+2c2 + .....cnccnc−j
mentre se j > nc si ha γj = 0
28
Matrice varianze covarianze di un MA(2)
γ0 γ1 γ2 0 0 0γ1 γ0 γ1 γ2 0 0γ2 γ1 γ0 γ1 γ2 00 γ2 γ1 γ0 γ1 γ20 0 γ2 γ1 γ0 γ10 0 0 γ2 γ1 γ0
29
MODELLI CON STAGIONALITA’
s= lag stagionale,
es s=4( dati trimestrali) ,s=6 (dati
bimestrali),s=12 (dati mensili), s=24
(dati orari)
operatore diff stagionale
I − Ls = (I + L+ L2 + .....+ Ls−1)(I − L)
(I − Ls)y(t) =s−1∑i=0
y(t− i)−s−1∑i=0
y(t− 1− i)
random walk stagionale
(I − Ls)y(t) = e(t)
ARMA(1,1) stagionale
(I − αLs)y(t) = (I + γLs)e(t)
30
ARMA(p,q)x(1,1) moltiplicativo stagionale
(I − αLs)y(t) = (I + γLs)z(t)
z(t) = a1z(t− 1) + a2z(t− 2) + ......+ apz(t− p)+
+e(t) + c1e(t− 1) + c2e(t− 2) + ...+ cqe(t− q)
che equivale a
(I − a1L− a2L2 − ...− apL
p)(I − αLs)y(t) =
(I − c1L− c2L2 − ...− cqL
q)(I + γLs)e(t)
casi particolari importanti
α = 1
γ = 0
31
RAPPRESENRTAZIONI COMPATTE
per semplicita assumiamo µ = 0
il modello ARMA si scrive in forma compatta:
A(L)y(t) = C(L)e(t)
a0 = 1, c0 = 1
sotto opportune condizioni l’operatore A(L) ha
l’operatore inverso A−1(L) (A(L)A−1(L) = 1)
per cui si ha anche che:
y(t) = A−1(L)C(L)e(t)
se A(L) = 1 si ha il modello MA se C(L) = 1
si ha il modello AR
32
il modello ARMAX si scrive in forma compatta:
A(L)y(t) = B(L)x(t) + C(L)e(t)
a0 = 1, b0 = 0, c0 = 1
sotto opportune condizioni l’operatore A(L) ha
l’operatore inverso A−1(L) per cui si ha anche
che:
y(t) = A−1(L)B(L)x(t) +A−1(L)C(L)e(t)
se A(L) = 1 si ha il modello MAX se C(L) = 1
si ha il modello ARX
33
MODELLO ARARMAX
considerando che
D(L)z(t) = C(L)e(t) =⇒ z(t) = D−1(L)C(L)e(t)
si ha
A(L)y(t) = B(L)x(t) +D−1(L)C(L)e(t)
che se esiste anche A−1(L) diviene
y(t) = A−1(L)B(L)x(t)+A−1(L)D−1(L)C(L)e(t)
Tutti i modelli precedenti sono casi particolari
del
34
MODELLO SCATOLA NERA
A(L)y(t) = F−1(L)B(L)x(t)+D−1(L)C(L)z(t)
che se esiste A−1(L) diviene
y(t) = A−1(L)F−1(L)B(L)x(t)+
+A−1(L)D−1(L)C(L)z(t)
ancora piu in generale si puo avere:
y(t) = G(L)x(t) +H(L)z(t)
35
PROBLEMI
• identificazione dell’ordine del modello
(na, nb, nc, nd, nf);
• stima dei parametri ai, bi, ci, di, fi
• adattamento ai dati usati per stimare i parametri
• uso modello a fini previsivi e valutazione
della sua capacita previsiva
• confronto fra modelli alternativi
• simulazione
36
STIMA MV per modello AR(1)
y(t) = ay(t− 1) + e(t)
dove le e(t) sono normali indipendenti di valore
atteso nullo e varianza σ2.
Gli stimatori di massima verosimiglianza di a, σ2
sono ottenuti massimizzando la log verosimiglianza:
logL(a, σ2) = log f(y(1))+
+ log f(y(2)|y(1)) + log f(y(3)|y(2))+
+ log f(y(4)|y(3)) + ...
Calcolo di f(y(1)): normale di valore atteso
nullo e varianza σ2
1−a2 si ha :
f(y(1)) =1√
2π σ2
1−a2
exp
−y(1)2
2 σ2
1−a2
37
Calcolo di f(y(t)|y(t− 1))
y(t)−E(y(t)|y(t− 1)) = y(t)− ay(t− 1) = e(t)
Si ricordi che e(t) e normale con valore atteso
nullo e varianza σ2.
Quindi (!!!!!!):
f(y(t)|y(t− 1)) =
=1√
2πσ2exp
−(y(t)− ay(t− 1))2
2σ2
38
Quindi a meno di costanti:
logL1 = −T
2lnσ2 +
1
2ln(1− a2)+
−1
2σ2
(√1− a2y(1)
)2+
−1
2σ2
T∑t=2
(y(t)− a · y(t− 1))2 .
39
TEST RAPPORTO VEROSIMIGLIANZE
modello completo:
θ =(θ′1, θ
′2
)′
modello ridotto ottenuto ponendo θ2 = 0
statistica test rapporto verosimiglianze (chi
quadro con gradi di liberta pari al numero di
vincoli):
G = 2 ·(L(b1,b2)− L(b∗1)
)
40
identificazione ordine del modello
Sia k il numero di parametri stimato. Si sceglie
il modello che minimizza
AIC(k): −2lnL+ 2k
41
PREVISORE PASSO 1 al tempo t:pt|t−1
Criterio minimo errore quadratico medio
yt|t−1 = E(y(t)|I(t−1))
E(y(t)− yt|t−1)2 ≤ E(y(t)− pt|t−1)
2
ft = E(y(t)− yt|t−1)2
MODELLO AR(na) (esempio prev. passo 1)
y(t) =
c+ a1y(t− 1) + a2y(t− 2) + ..+ anay(t− na) + e(t)
yt|t−1 =
c+ a1y(t− 1) + a2y(t− 2) + ..+ anay(t− na)
ft = σ2
42
Previsori Lineari ottimali
yt|t−1 = α0 +T∑i=1
αiy(t− i)
criterio dei minimi quadrati
minα0,α1,...,αn
E((y(t)− yt|t−1))2
43
equazioni di previsione
E[(y(t)− α0 −T∑i=1
αiy(t− i))] = 0
E[(y(t)− α0 −T∑i=1
αiy(t− i))y(t− k)] = 0,
k = 1,2, ...., T
dalla prima si ottiene
α0 = µ(1−T∑i=1
αi)
la seconda in forma matriciale e:
ΓTα = γT
44
varianza dell’errore di previsione
E(y(t)− yt|t−1)2 =
= var(y(t))− γ′TΓ−1T γT
45
previsori troncati
Un modello ARMA(p,q) pu essere scritto come
AR(∞) o MA(∞) se il polinomio della compo-
nente autoregressiva e il polinomio della com-
ponente a media mobile hanno radici esterne
al cerchio unitario.
y(t) =∞∑0
ψie(t− i)
y(t) =∞∑1
ϕiy(t− i) + e(t)
dalla rappresentazione AR(∞) si ottiene la espres-
sione del predittore lineare troncato a n osser-
vazioni:
yt|t−1 =n∑1
ϕiy(t− i)
46
selezione basata su capacita previsiva dei
modelli
Indice MSPE
1
T ′
T ′∑j=1
(yj|j−1 − y(j))2
Indice MAPE
1
T ′
T ′∑j=1
|yj|j−1 − y(j)|
48
confronto capacita previsiva di due modelli
errori previsione modello A e modello B
ej|j−1;A = yj|j−1;A − y(j)
ej|j−1;B = yj|j−1;B − y(j)
differenziale diprevisivone
dj = ej|j−1;A − ej|j−1;B
Test dei segni
S =T ′∑j=1
Idj>0
sotto l’ipotesi che i due modelli abbiano la
stessa capacita previsiva e una binomiale di
parametri T ′ e π = 0.5 Segue tecnica standard
per testare H0 : π = 0.5
49
MODELLI STATE SPACE NORMALI
LINEARI
y(t) = h′b(t) + x(t)
′β + e(t)
b(t) = c + Fb(t− 1) + Hv(t)
e(t) normale con valore atteso nullo e varianza
σ2
v(t) valore atteso nullo e E(v(t)v(t)′) = Q
50
Un esempio importante :livello stocastico
y(t) = µ(t) + e(t)
µ(t) = µ(t− 1) + v1(t)
51
Un esempio importante :livello stocastico
trend stocastico
y(t) = µ(t) + e(t)
µ(t) = µ(t− 1) + β(t− 1) + v1(t)
β(t) = β(t− 1) + v2(t)
Se var(v2(t)) e nulla si ha trend deterministico
e livello stocastico. Se var(v1(t)) e nulla si ha
trend stocastico.
52
(µ(t)β(t)
)=
(1 10 1
)(µ(t− 1)β(t− 1)
)+
(v1(t)v2(t)
)
y(t) =(
1 0)( µ(t)
β(t)
)+ e(t)
53
random walk di ordine k
b(t) = Fb(t− 1) + Hv(t)
y(t) = [ 1 0 .. .. 0 ]b(t) + e(t)
= b(1, t) + e(t)
dove F e una k ·k matrice identita con la prima
riga sostituita dal vettore riga c, il cui iesimo
elemento e ci = (−1)i−1
(ki
).
esempio k = 2:
F =
[2 −11 0
]
54
modello ARMA in forma spazio degli
stati-prima forma
y(t) =
c+ a1y(t− 1) + a2y(t− 2) + a3y(t− 3)+
+e(t) + c1e(t− 1) + c2e(t− 2) + c3e(t− 3)
x(1, t)x(2, t)x(3, t)
=
a1 1 0a2 0 1a3 0 0
x(1, t− 1)x(2, t− 1)x(3, t− 1)
+
+
a1 + c1a2 + c2a3 + c3
e(t− 1)
y(t) = c+(
1 0 0) x(1, t)
x(2, t)x(3, t)
+ e(t)
55
modello ARMA in forma spazio degli
stati-seconda forma
y(t) =
c+ a1y(t− 1) + a2y(t− 2) + a3y(t− 3)+
+e(t) + c1e(t− 1) + c2e(t− 2)
x(1, t)x(2, t)x(3, t)
=
a1 1 0a2 0 1a3 0 0
x(1, t− 1)x(2, t− 1)x(3, t− 1)
+
+
1c1c2
e(t)
y(t) = c+(
1 0 0) x(1, t)
x(2, t)x(3, t)
+ e(t)
56
modello ARMA in forma spazio degli stati-
terza forma
y(t) =
c+ a1y(t− 1) + a2y(t− 2) + a3y(t− 3)+
+e(t) + c1e(t− 1) + c2e(t− 2)
x(1, t)x(2, t)x(3, t)
=
a1 a2 a31 0 00 1 0
x(1, t− 1)x(2, t− 1)x(3, t− 1)
+
+
100
e(t)
y(t) = c+(
1 c1 c2) x(1, t)
x(2, t)x(3, t)
57
dimostrazione equivalenza per la terza forma
Si assume c=0 per semplicita. Le equazioni delle osser-vazioni e degli stati in forma non matriciale sono
y(t) = x(1, t) + c1x(2, t) + c2x(3, t) (1)
x(1, t) = a1x(1, t− 1) + a2x(2, t− 1) + a3x(3, t− 1) + e(t)(2)
x(2, t) = x(1, t− 1) (3)
x(3, t) = x(2, t− 1) (4)
La 3 valutata in t-1 diviene
x(2, t− 1) = x(1, t− 2) (5)
che sostituita nella 4 da
x(3, t) = x(1, t− 2) (6)
che per il tempo t-1 diviene
x(3, t− 1) = x(1, t− 3) (7)
58
La 5 e la 7 sostituite nella 2 danno
x(1, t) = a1x(1, t− 1) + a2x(1, t− 2) + a3x(1, t− 3) + e(t)(8)
ovvero
(1− a1L− a2L2 − a3L
3)x(1, t) = e(t) (9)
Sostituendo nella 1 le 3 e 6 si ottiene
y(t) = (1 + c1L+ c2L2)x(1, t) (10)
moltiplicando entrambi i termini della 10 per (1− a1L−a2L2 − a3L3) e usando la 9 si ottiene
(1− a1L− a2L2 − a3L
3)y(t) = (1 + c1L+ c2L2)e(t)
(11)
C.V.D.
59
modello local level local trend+AR(2)+stag:
EQUAZIONE DEGLI STATI COMPONENTE
LOCAL LEVEL LOCAL TREND(x(1, t)x(2, t)
)=
=
(1 10 1
)(x(1, t− 1)x(2, t− 1)
)+
+
(1 00 1
)(e(1, t)e(2, t)
)
60
modello local level local trend+AR(2)+stag:
EQUAZIONE DEGLI STATI COMPONENTE
ar(2) (x(3, t)x(4, t)
)=
=
(a1 a21 0
)(x(3, t− 1)x(4, t− 1)
)+
+
(10
)(e(3, t)
)
61
modello local level local trend+AR(2)+stag-
: EQUAZIONE DEGLI STATI COMPONENTE
STAGIONALITA’ x(5, t)x(6, t)x(7, t)
=
=
−1 −1 −11 0 00 1 0
x(5, t− 1)x(6, t− 1)x(7, t− 1)
+
+
100
( e(4, t) )
62
modello local level local trend+AR(2)+stag:
EQUAZIONE DEGLI STATI
x(1, t)x(2, t)x(3, t)x(4, t)x(5, t)x(6, t)x(7, t)
=
=
1 1 0 0 0 0 00 1 0 0 0 0 00 0 a1 a2 0 0 00 0 1 0 0 0 00 0 0 0 −1 −1 −10 0 0 0 1 0 00 0 0 0 0 1 0
x(1, t− 1)x(2, t− 1)x(3, t− 1)x(4, t− 1)x(5, t− 1)x(6, t− 1)x(7, t− 1)
+
+
1 0 0 00 1 0 00 0 1 00 0 0 00 0 0 10 0 0 00 0 0 0
e(1, t)e(2, t)e(3, t)e(4, t)
63
EQUAZIONE DELLE OSSERVAZIONI
y(t) = c+(
1 0 1 0 1 0 0)
x(1, t)x(2, t)x(3, t)x(4, t)x(5, t)x(6, t)x(7, t)
+e(t)
64
questo mostra che sufficente trattare prob-
lema stima e previsione per i modelli spazio
degli stati. E4 ad esempio traspone tutti i
modelli nella forma spazio degli stati per sti-
mare e prevedere e restituisce i risultati nella
formulazione usuale del modello.
65
PREVISORE PASSO 1 al tempo t:pt|t−1
Criterio minimo errore quadratico medio
yt|t−1 = E(y(t)|I(t−1))
E(y(t)−yt|t−1|I(t−1))2 ≤ E(y(t)−pt|t−1|I(t−1))
2
ft|t−1 =
= E(y(t)− yt|t−1|I(t−1))2 = var(y(t)− yt|t−1|I(t−1))
MODELLO AR(na) (esempio prev. passo 1)
y(t) =
c+ a1y(t− 1) + a2y(t− 2) + ..+ anay(t− na) + e(t)
yt|t−1 =
c+ a1y(t− 1) + a2y(t− 2) + ..+ anay(t− na)
ft|t−1 = σ2
66
DEFINIZIONE DI Variabile Casuale Multi-
normale
Sia z = (z1, z2, ...., zT )′ un vettore di T normali
standardizzate indipendenti. La variabile ca-
suale vettoriale:
w = µ+ L′z
e una variabile casuale multinormale di dimen-
sione T con valore atteso µ e matrice varianze
covarianze Ω = L′L.
Se Ω e diagonale le componenti di w sono
stocasticamente indipendenti.
Conseguenza:Cw = Cµ+ CL′z e una variabile
casuale multinormale con valore atteso Mµ e
matrice varianze covarianze Ω = C(L′L
)C′.
67
fatto importante: la densita congiunta di
una variabile casuale multinormale con valore
atteso µ e matrice varianze covarianze Ω e:
f(w;µ,Ω)=
=1
(2π det(Ω))T/2exp
−
1
2(w − µ)′Ω−1 (w − µ)
68
risultato fondamentale:
w =
(w1w2
)
E(w) =
(µ1µ2
)
V ar(w) =
(Σ11 Σ12Σ21 Σ22
)
E(w2|w1) = µ2 + Σ21Σ−111 (w1 − µ1)
V ar(w2|w1) = Σ22 −Σ21Σ−111 Σ12
69
FILTRO DI KALMANN Legenda
bt|t−1 = E(b(t)|I(t−1))
bt|t = E(b(t)|I(t))
Pt|t−1 = var(b(t)|I(t−1))
Pt|t = var(b(t)|I(t))
yt|t−1 = E(y(t)|I(t−1))
ft|t−1 = var(y(t)− yt|t−1|I(t−1))
70
FILTRO DI KALMANN
Si inizializza con b0|0 e la sua matrice varcovar
P0|0
per t=1,2,3,.......,T
PREVISIONE AL TEMPO t-1 per il tempo t
bt|t−1 = c + Fbt−1|t−1
yt|t−1 = h′bt|t−1 + x(t)
′β
INNOVAZIONE per il tempo t + varianze pre-
visione
y(t)− yt|t−1
Pt|t−1 = FPt−1|t−1F′+ Q
ft|t−1 = h′Pt|t−1h + σ2
71
le precedenti quantita permettono di calcolare
il logaritmo della densita di y(t) condizionata
da I(t−1) cioe il t-esimo addendo log verosimiglianza
Lt =1
2ln(2πft|t−1)−
1
2ft|t−1(y(t)− yt|t−1)
2
72
Per capire le prossime formule di aggiornamento
si nota che:
y(t)− yt|t−1 = e(t) + (b(t)− bt|t−1)′h
quindi che
cov(b(t), y(t)− yt|t−1|I(t−1)) = var(b(t)|I(t−1))h =
= Pt|t−1h
Si ricordi poi il risultato sulla multinormale con-
dizionata
E(b(t)|I(t−1), y(t)− yt|t−1) = bt|t−1+
+cov(b(t), y(t)− yt|t−1|I(t−1))(y(t)− yt|t−1)
var(y(t)|I(t−1))
73
AGGIORNAMENTO al tempo t
bt|t = bt|t−1 + Pt|t−1h1
ft|t−1(y(t)− yt|t−1) =
= bt|t−1 + Kt(y(t)− yt|t−1)
Pt|t = Pt|t−1 −Pt|t−1h1
ft|t−1h′Pt|t−1 =
= Pt|t−1 −Ktx(t)′Pt|t−1
Calcolo log verosimiglianza
L =T
2ln(2πft|t−1)−
T∑t=1
1
2ft|t−1(y(t)− yt|t−1)
2
74
identificazione ordine del modello
Sia k il numero di parametri stimato. Si sceglie
il modello che minimizza
AIC(k): −2lnL+ 2k
75
selezione basata su capacita previsiva dei
modelli
Indice MSPE
1
T ′
T ′∑j=1
(yj|j−1 − y(j))2
Indice MAPE
1
T ′
T ′∑j=1
|yj|j−1 − y(j)|
76
confronto capacita previsiva di due modelli
errori previsione modello A e modello B
ej|j−1;A = yj|j−1;A − y(j)
ej|j−1;B = yj|j−1;B − y(j)
differenziale diprevisivone
dj = ej|j−1;A − ej|j−1;B
Test dei segni
S =T ′∑j=1
Idj>0
sotto l’ipotesi che i due modelli abbiano la
stessa capacita previsiva e una binomiale di
parametri T ′ e π = 0.5 Segue tecnica standard
per testare H0 : π = 0.5
77