Capitolo 1 Introduzione ai Processi...

156
Capitolo 1 Introduzione ai Processi Stocastici 1.1 Prime denizioni 1.1.1 Processi stocastici Ricordiamo che uno spazio di probabilit L una terna (; F ;P ) dove L un insieme, F L una -algebra di parti di , P L una misura di probabilit su (; F ); la coppia (; F ) L chiamata spazio misurabile. In uno spazio topologico E indicheremo con B (E) la -algebra dei boreliani (la piø piccola -algebra che contiene gli aperti). Una variabile aleatoria Y su (; F ) a valori in uno spazio misurabile (E; E ) L una funzione Y : ! E misurabile da (; F ) in (E; E ), cioL tale che f! 2 : Y (!) 2 Bg2F per ogni B 2E . Una variabile aleatoria reale Y su (; F ) L una variabile aleatoria su (; F ) a valori in (R; B (R)). Sia T un insieme non vuoto. L insieme T sar l insieme dei parametri del processo stocastico. A livello interpretativo, pu essere ad esempio un insieme di tempi, oppure di posizioni spaziali o di spazio-tempo. In alcuni momenti sar necessario supporre di avere uno spazio misurabile (T; T ) ed in altri uno spazio topologico T , con T = B (T ); altrimenti T L del tutto arbitrario. Tutto ci no al momento in cui introdurremo le ltrazioni; con l introduzione del concetto di ltrazione, restringeremo lattenzione al caso in sia T [0; 1), T = B (T ) ed interpreteremo T come insieme dei tempi. Tutti gli sviluppi avanzati del corso riguarderanno il caso T = [0; 1) (o T = [0;t 0 ]) per cui avrebbe senso restringersi n da ora a quel caso. Per pu essere concettualmente interessante osservare che questi primi paragra hanno carattere piø generale, per cui per ora supporremo solo che T sia un insieme, non vuoto. Siano dati, oltre a T , uno spazio di probabilit (; F ;P ) ed uno spazio misurabile (E; E ) (detto spazio degli stati). Un processo stocastico X =(X t ) t2T , denito su (; F ;P ) a valori in (E; E ) L una funzione X denita su T a valori in E, tale che per ogni t 2 T la funzione ! 7! X t (!) sia misurabile da (; F ) in (E; E ). Ne segue 1

Transcript of Capitolo 1 Introduzione ai Processi...

Page 1: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

Capitolo 1

Introduzione ai Processi Stocastici

1.1 Prime definizioni

1.1.1 Processi stocastici

Ricordiamo che uno spazio di probabilità è una terna (Ω,F , P ) dove Ω è un insieme, Fè una σ-algebra di parti di Ω, P è una misura di probabilità su (Ω,F); la coppia (Ω,F)è chiamata spazio misurabile. In uno spazio topologico E indicheremo con B (E) laσ-algebra dei boreliani (la più piccola σ-algebra che contiene gli aperti). Una variabilealeatoria Y su (Ω,F) a valori in uno spazio misurabile (E, E) è una funzione Y : Ω→ Emisurabile da (Ω,F) in (E, E), cioè tale che ω ∈ Ω : Y (ω) ∈ B ∈ F per ogni B ∈ E .Una variabile aleatoria reale Y su (Ω,F) è una variabile aleatoria su (Ω,F) a valori in(R,B (R)).

Sia T un insieme non vuoto. L’insieme T sarà l’insieme dei parametri del processostocastico. A livello interpretativo, può essere ad esempio un insieme di tempi, oppuredi posizioni spaziali o di spazio-tempo. In alcuni momenti sarà necessario supporre diavere uno spazio misurabile (T, T ) ed in altri uno spazio topologico T , con T = B (T );altrimenti T è del tutto arbitrario. Tutto ciò fino al momento in cui introdurremo lefiltrazioni; con l’introduzione del concetto di filtrazione, restringeremo l’attenzione alcaso in sia T ⊂ [0,∞), T = B (T ) ed interpreteremo T come insieme dei tempi. Tuttigli sviluppi avanzati del corso riguarderanno il caso T = [0,∞) (o T = [0, t0]) percui avrebbe senso restringersi fin da ora a quel caso. Però può essere concettualmenteinteressante osservare che questi primi paragrafi hanno carattere più generale, per cuiper ora supporremo solo che T sia un insieme, non vuoto.

Siano dati, oltre a T , uno spazio di probabilità (Ω,F , P ) ed uno spazio misurabile(E, E) (detto spazio degli stati). Un processo stocastico X = (Xt)t∈T , definito su(Ω,F , P ) a valori in (E, E) è una funzione X definita su Ω× T a valori in E, tale cheper ogni t ∈ T la funzione ω 7−→ Xt (ω) sia misurabile da (Ω,F) in (E, E). Ne segue

1

Page 2: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

2 CAPITOLO 1. INTRODUZIONE AI PROCESSI STOCASTICI

che, dati t1 < ... < tn ∈ T , la funzioneω 7−→ (Xt1 (ω) , ..., Xtn (ω))

è misurabile da (Ω,F) in (En,⊗nE). Le leggi di probabilità di questi vettori (leggiimmagine di P rispetto a queste applicazioni) si chiamano distribuzioni di dimensionefinita del processo.Le funzioni t 7−→ Xt (ω) da T in E (ad ω fissato) si dicono realizzazioni o traiettorie

del processo stocastico. Il termine traiettoria va forse riservato al caso in cui sia T ⊂[0,∞).Due processi stocastici X = (Xt)t∈T e Y = (Yt)t∈T si dicono equivalenti se hanno

le stesse distribuzioni di dimensione finita. Si dicono modificazione (o versione) unodell’altro se per ogni t ∈ T vale

P (Xt = Yt) = 1.

Si dicono indistinguibili se

P (Xt = Yt per ogni t ∈ T ) = 1.

Due processi indistinguibili sono modificazione uno dell’altro. Due processi che sonomodificazione uno dell’altro sono equivalenti. Si veda l’esercizio 1. Si noti che, adifferenza delle altre due, la definizione di processi equivalenti non richiede che essisiano definiti sullo stesso spazio (Ω,F , P ).Supponiamo che T ed E siano spazi topologici e siano T = B (T ), E = B (E).

Un processo si dice continuo se le sue realizzazioni sono funzioni continue; si dice q.c.continuo se ciò avviene per P -quasi ogni realizzazione.Quando T ⊂ [0,∞), le definizioni di continuo a destra e/o a sinistra, costante a

tratti ed altre della stessa natura sono simili. Un processo si dice càdlàg (continue àdroite, limite à gauche) se le sue traiettorie sono continue a destra ed hanno limitefinito a sinistra.Se (T, T ) è uno spazio misurabile, possiamo dare la seguente definizione. Un proces-

so si dice misurabile se l’applicazione (t, ω) 7−→ Xt (ω) è misurabile da (T × Ω, T ⊗ F)in (E, E).Elenchiamo anche alcune nozioni che si usano soprattutto nella cosiddetta teoria

della correlazione dei processi stazionari, per noi marginale ma toccata almeno nel casodei processi gaussiani. Supponiamo che sia (E, E) = (R,B (R)). Indichiamo con E [·] lasperanza matematica su (Ω,F , P ) (E [Y ] =

∫ΩY dP , per ogni Y v.a. reale (Ω,F , P ) in-

tegrabile), con V ar [·] la varianza (V ar [Y ] = E[(Y − E [Y ])2] quando Y è di quadrato

integrabile), con Cov (·, ·) la covarianza (Cov (Y, Z) = E [(Y − E [Y ]) (Z − E [Z])] seY e Z sono v.a. di quadrato integrabile). Sia X un processo stocastico a valori in(R,B (R)), su (Ω,F , P ). Se E [|Xt|] < ∞ per ogni t ∈ T , chiamiamo m (t) = E [Xt],t ∈ T , funzione valor medio del processo X. Se E [X2

t ] <∞ per ogni t ∈ T , chiamiamoσ2 (t) = V ar [Xt], t ∈ T , funzione varianza di X e chiamiamo C (t, s) = Cov (Xt, Xs),t, s ∈ T , funzione covarianza di X.

Page 3: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

1.1. PRIME DEFINIZIONI 3

Esercizio 1 Costruire due processi equivalenti che non siano modificazione uno del-l’altro e due processi modificazione uno dell’altro che non siano indistinguibili.

1.1.2 Legge di un processo

Sia ET lo spazio di tutte le funzioni f : T → E. Indichiamo con S l’insieme di tuttele n-ple ordinate τ = (t1, ..., tn) di elementi di T tali che ti 6= tj per ogni i 6= j,i, j = 1, ..., n. Indichiamo con En la σ-algebra prodotto di n copie di E .Presa τ = (t1, ..., tn) ∈ S e preso B ∈ En consideriamo l’insieme

C (τ , B) ⊂ ET

di tutte le funzioni f : T → E tali che

(f (t1) , ..., f (tn)) ∈ B.

Lo chiameremo insieme cilindrico (con base B e coordinate t1, ..., tn). Sia A la famigliadi tutti gli insiemi cilindrici C (τ , B), con n ∈ N, τ = (t1, ..., tn) ∈ S e B ∈ En. Lafamiglia A è un’algebra di parti di ET : contiene ET ; il complementare di un insiemedella forma (f (t1) , ..., f (tn)) ∈ B è l’insieme cilindrico (f (t1) , ..., f (tn)) ∈ Bc; èchiusa per intersezione finita. Quest’ultima proprietà è noiosa da scrivere in gen-erale ma è ovvia se si pensa ad esempio al caso particolare dei due insiemi cilindricif (t1) ∈ B1, f (t2) ∈ B2, con τ = (t1, t2), B1, B2 ∈ E , la cui intersezione è l’insieme(f (t1) , f (t2)) ∈ B1 ×B2 che appartiene ad A.Sia ET la più piccola σ-algebra di parti di ET che contiene gli insiemi cilindrici.Dato un processo stocastico X = (Xt)t∈T definito su uno spazio di probabilità

(Ω,F , P ) a valori in uno spazio misurabile (E, E) consideriamo l’applicazione

ωΛ7−→ X· (ω)

da (Ω,F) in(ET , ET

). Essa è misurabile. Infatti, preso un insieme cilindrico C (τ , B),

τ = (t1, ..., tn) ∈ S, B ∈ En, la sua controimmagine è l’insieme

(Xt1 , ..., Xtn) ∈ B

e questo insieme sappiamo essere misurabile, un elemento di F . Rammentiamo che perverificare la misurabilità di un’applicazione basta farlo su una famiglia generante laσ-algebra in arrivo (in simboli generali, se X : (Ω,F)→ (E, E) soddisfa X−1 (B) ∈ Fper ogni B ∈ G, dove G ⊂ E ed E =σ (G), allora X è misurabile; infatti, si prenda lafamiglia H ⊂ P (E) degli insiemi B ⊂ E tali che X−1 (B) ∈ F ; si verifica che H è unaσ-algebra e contiene G, quindi contiene σ (G)).Possiamo quindi considerare la legge dell’applicazione Λ (misura immagine di P

attraverso Λ). Si chiamerà legge del processo. E’una misura di probabilità su(ET , ET

).

Indichiamola col simbolo PX . Vale

PX (C (π,B)) = P ((Xt1 , ..., Xtn) ∈ B)

Page 4: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

4 CAPITOLO 1. INTRODUZIONE AI PROCESSI STOCASTICI

per ogni τ = (t1, ..., tn) ∈ S e B ∈ En.

Proposizione 1 Due processiX edX ′, definiti rispettivamente su (Ω,F , P ) e (Ω′,F ′, P ′)a valori in (E, E), sono equivalenti se e solo se hanno la stessa legge su

(ET , ET

).

Proof. Se hanno la stessa legge allora, presi τ = (t1, ..., tn) ∈ S e B ∈ En, vale

P ((Xt1 , ..., Xtn) ∈ B) = PX (C (τ , B)) = P ′X′ (C (τ , B))

= P ′((X ′t1 , ..., X

′tn

)∈ B

)quindi hanno le stesse distribuzioni di dimensione finita.Viceversa, se hanno le stesse distribuzioni di dimensione finita, vale

PX (C (τ , B)) = P ((Xt1 , ..., Xtn) ∈ B) = P ′((X ′t1 , ..., X

′tn

)∈ B

)= P ′X′ (C (τ , B))

quindi le misure di probabilità PX e P ′X′ , misure su(ET , ET

), coincidono sugli insiemi

cilindrici. La famiglia A di tali insiemi genera ET ed è chiusa per intersezione finita equindi, per un noto teorema di Caratheodory, le due misure coincidono su tutta ET .La dimostrazione è completa.

1.1.3 Legge nello spazio delle funzioni continue

Esaminiamo adesso un problema più delicato. Supponiamo che X sia continuo. Percapire bene il problema senza complicazioni topologiche collaterali, iniziamo discutendoil caso in cui

T = R+ := [0,∞), E = Rn (1.1)

e le σ-algebre sono quelle dei boreliani. Indichiamo con C0 l’insieme C (R+;Rn) dellefunzioni continue da R+ in Rn, munito della topologia della convergenza uniforme suicompatti.L’insieme Λ (Ω) non è solo un sottoinsieme di ER+ ma anche di C0. E’naturale pen-

sare che Λ definisca una misura immagine su (C0,B (C0)). Purtroppo si può dimostrareche C0 /∈ B (E)R+ (omettiamo la dimostrazione) e questo non permette facilmente di

“restringere” la legge del processo, precedentemente definita su(ER+ ,B (E)R+

), ad

una legge su (C0,B (C0)) (in realtà anche questa strada è percorribile con opportuneconsiderazioni basate sulla misura esterna, applicabili dopo aver verificato che la misuraesterna dell’insieme non misurabile C0 è pari ad 1).Per aggirare questo ostacolo basta dimostrare il risultato seguente.

Proposizione 2 Se X = (Xt)t≥0 è un processo continuo a valori reali, allora Λ èmisurabile da (Ω,F) in (C0,B (C0)). Possiamo quindi considerare la misura immaginedi P attraverso Λ, su (C0,B (C0)), che chiameremo legge del processo X su (C0,B (C0)).

Page 5: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

1.1. PRIME DEFINIZIONI 5

Proof. La σ-algebra B (C0) è generata dagli insiemi della forma

B (f0, n, R) =

f ∈ C0 : max

t∈[0,n]|f (t)− f0 (t)| ≤ R

al variare di f0 ∈ C0, n ∈ N, R > 0. Sia tj ⊂ R+ una successione che conta i

razionali non negativi. Indichiamo cont(n)j

la sotto-successione composta dai tj che

appartengono a [0, n];t(n)j

è densa in [0, n]. Vale

B (f0, n, R) =f ∈ C0 :

∣∣∣f (t(n)j

)− f0

(t(n)j

)∣∣∣ ≤ R, ∀ j ∈ N.

Poniamo inoltre

B (f0, n,N,R) =f ∈ C0 :

∣∣∣f (t(n)j

)− f0

(t(n)j

)∣∣∣ ≤ R, ∀ j ≤ N

per ciascun N ∈ N. La controimmagine di B (f0, n,N,R) attraverso Λ è l’insiemeω ∈ Ω :

∣∣∣Xt(n)j

(ω)− f0

(t(n)j

)∣∣∣ ≤ R, ∀ j ≤ N

che appartiene ad F (è anche la controimmagine di un insieme cilindrico). Vale inoltre

B (f0, n, R) =⋂N∈N

B (f0, n,N,R) .

La controimmagine di questo insieme è intersezione numerabile di elementi di F , quindiè elemento di F . Siccome questi insiemi, come detto sopra, generano B (C0), Λ èmisurabile tra le σ-algebre indicate. La dimostrazione è completa.

Osservazione 1 Con ragionamenti non molto diversi si dimostra che due proces-si continui con le stesse distribuzioni di dimensione finita, hanno la stessa legge su(C0,B (C0)).

Se un processo X è solamente q.c. continuo, definisce ugualmente una misura diprobabilità su (C0,B (C0)) del tutto analoga al caso precedente, che continueremo achiamare misura immagine di P attraverso Λ su (C0,B (C0)). Infatti, esiste un insiemeΩ′ ∈ F di P -misura 1 tale che Λ (Ω′) ⊂ C0. Consideriamo lo spazio probabilizzato(Ω′,F ′, P ′) dove F ′ = F ∩ Ω′ e P ′ è la restrizione di P ad F ′. Ora Λ : Ω′ → C0 è bendefinita e induce una misura di probabilità su (C0,B (C0)). Si verifica facilmente cheessa non dipende dalla scelta di Ω′ con le proprietà precedenti.Le considerazioni illustrate sopra si estendono a varie situazioni più generali. Una

molto simile è quella in cui T è uno spazio metrico, unione numerabile di compatti(spazio metrico σ-compatto) ed E è uno spazio metrico separabile.

Page 6: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

6 CAPITOLO 1. INTRODUZIONE AI PROCESSI STOCASTICI

1.2 Teorema di estensione di Kolmogorov

Abbiamo visto che, dato un processo X = (Xt)t∈T , questo definisce una misura diprobabilità su

(ET , ET

). Quando vale il viceversa, cioè per quali misure µ di probabilità

su(ET , ET

)esiste un processo che ha µ come legge? Per tutte: basta prendere il

processo canonico, Ω = ET , F = ET , Xt (ω) = ω (t). Meno banale è il problema diinversione che ora descriveremo.Data una misura di probabilità µ su

(ET , ET

), definiamo le sue distribuzioni di

dimensione finita nel seguente modo. Presa τ = (t1, ..., tn) ∈ S, indichiamo con πτ :ET → En l’applicazione πτ (f) = (f (t1) , ..., f (tn)). E’misurabile, rispetto a ET e En(presoB ∈ En la sua controimmagine è l’insieme cilindrico

f ∈ ET : (f (t1) , ..., f (tn)) ∈ B

,

che appartiene ad ET ). La distribuzione di dimensione n di µ relativa a π è la leggeimmagine µτ di µ attraverso πτ :

µτ (B) = µ(f ∈ ET : (f (t1) , ..., f (tn)) ∈ B

), B ∈ En.

Se µ = PX , essa è la legge del vettore aleatorio (Xt1 , ..., Xtn) e µτ ; τ ∈ S è la famigliadelle distribuzione di dimensione finita del processo X.Il problema di inversione è il seguente: data una famiglia di misure di probabilità

µτ ; τ ∈ S (si sottintende che se τ = (t1, ..., tn) ∈ S, allora µτ è una misura di proba-bilità su (En, En)), esiste una misura di probabilità µ su

(ET , ET

)di cui µτ ; τ ∈ S sia

la famiglia delle distribuzioni di dimensione finita? Siccome l’esistenza di un processocon legge µ è ovvia, il problema è equivalente a: data una famiglia di misure di prob-abilità µτ ; τ ∈ S, esiste uno spazio probabilizzato (Ω,F , P ) ed un processo X su(Ω,F , P ) che abbia µτ ; τ ∈ S come famiglia delle distribuzioni di dimensione finita?

Osservazione 2 Alla base dei seguenti ragionamenti c’è il fatto che un insieme cilin-drico non ha una sola rappresentazione. Ad esempio, dati t1, ..., tn, tn+1 ∈ T , B ∈ En,valef ∈ ET : (f (t1) , ..., f (tn)) ∈ B

=f ∈ ET : (f (t1) , ..., f (tn) , f (tn+1)) ∈ B × E

oppure, dati t1, t2 ∈ T , B1, B2 ∈ E, vale

f ∈ ET : (f (t1) , f (t2)) ∈ B1 ×B2

=f ∈ ET : (f (t2) , f (t1)) ∈ B2 ×B1

.

Servono due ingredienti: una proprietà di compatibilità tra le µτ ed un po’ diregolarità dello spazio (E, E). La proprietà di compatibilità tra le µτ si intuisce facil-mente a posteriori, quando esse sono le distribuzioni di dimensione finita di µ. Sitratta di due condizioni, che a parole potremmo chiamare “invarianza sotto permu-tazioni degli indici” e “invarianza sotto contrazioni degli indici”. Vediamo la prima.Se τ = (t1, ..., tn) ∈ S e se (i1, ..., in) è una permutazione di (1, ..., n), indicata con

Page 7: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

1.2. TEOREMA DI ESTENSIONE DI KOLMOGOROV 7

P(i1,...,in) : En → En l’applicazione che manda la generica sequenza (x1, ..., xn) nella(xi1 , ..., xin), deve valere (per le distribuzioni di dimensione finita di un processo)

µ(t1,...,tn) (B) = µ(ti1 ,...,tin)(P(i1,...,in) (B)

). (1.2)

Vediamo ora la seconda. Data τ = (t1, ..., tn) ∈ S, indichiamo con τ n la sequen-za τ n = (t1, ..., tn−1) (la sequenza ottenuta omettendo tn dalla τ), le misure µτ eµτ n sono legate dalla proiezione πn : En → En−1 che manda una generica sequenza(x1, ..., xn) ∈ En nella sequenza (x1, ..., xn−1) ∈ En−1 (la sequenza ottenuta omettendol’ultima componente di (x1, ..., xn)). Vale

µτ n = πn (µτ ) (1.3)

nel senso che µτ n è la legge immagine di µτ attraverso πn, ovvero esplicitamenteµτ n (B) = µτ (πn ∈ B) per ogni B ∈ En−1.Si può verificare facilmente che è equivalente richiedere queste condizioni per insiemi

B di tipo rettangolare, rispetto a cui esse si scrivono più agevolmente. Possiamorichiedere che

µ(t1,...,tn) (B1 × · · · ×Bn) = µ(ti1 ,...,tin) (Bi1 × · · · ×Bin)

µ(t1,...,tn) (B1 × · · · × E) = µ(t1,...,tn−1) (B1 × · · · ×Bn−1)

per ogni n ∈ N, (t1, ..., tn) ∈ S, B1, ..., Bn ∈ E .

Definizione 1 Sia µτ ; τ ∈ S una famiglia di misure di probabilità (sempre sottin-tendendo che se τ = t1, ..., tn ∈ S, µτ sia una misura di probabilità su (En, En)).Quando valgono (1.2)-(1.3) per ogni scelta di n ∈ N, τ = (t1, ..., tn) ∈ S, i = 1, ..., n,diciamo che la famiglia µτ ; τ ∈ S è consistente.

Ricordiamo che uno spazio metrico E si dice σ-compatto se è unione numerabiledi compatti di E. Un risultato di teoria della misura dice che su uno spazio metricoE si dice σ-compatto, se ρ è una misura di probabilità definita sui boreliani B (E),allora per ogni B ∈ B (E) ed ε > 0 esiste un compatto K ⊂ B tale che ρ (B\K) < ε.Useremo questo risultato nella dimostrazione del seguente teorema.

Teorema 1 Se µτ ; τ ∈ S è una famiglia consistente, E è uno spazio metrico σ-compatto, E = B (E), allora esiste una ed una sola misura di probabilità µ su

(ET , ET

)di cui µτ ; τ ∈ S sia la famiglia delle distribuzioni di dimensione finita.

Proof. Passo 1 (preparazione). L’unicità è del tutto analoga a quella della Propo-sizione 1: due misure con le stesse distribuzioni di dimensione finita coincidono su unaclasse chiusa per intersezione finita e generante la σ-algebra ET , quindi coincidono sututta ET .

Page 8: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

8 CAPITOLO 1. INTRODUZIONE AI PROCESSI STOCASTICI

Per l’esistenza, ricordiamo il seguente teorema di Charateodory: dato uno spaziomisurabile (Ω,G) ed un’algebra A che genera G, se µ è una misura finitamente addi-tiva su (Ω,A), continua in ∅ (cioè tale che, se An è una successione di eventi diA decrescente con intersezione vuota allora limn→∞ µ (An) = 0), allora µ si estendeunivocamente ad una misura numerabilmente additiva su (Ω,G).Prendiamo l’algebra A di tutti gli insiemi cilindrici C (π,B), con n ∈ N, τ =

t1, ..., tn ∈ S e B ∈ En. L’algebra A genera ET . Basta definire una misura µ suA con le proprietà del teorema di Charateodory ed avente µτ ; τ ∈ S come famigliadelle distribuzioni di dimensione finita, ed il teorema è dimostrato.Preso un insieme cilindrico C ∈ A, esistono infinite sue rappresentazioni nella forma

C = C (τ , B) con τ = (t1, ..., tn) e B ∈ En. Presa una di tali rappresentazioni, possiamocalcolare µτ (B) e porre

µ (C) = µτ (B) .

Ma la definizione è ben data solo se non dipende dalla rappresentazione di C. Quiinterviene l’ipotesi di consistenza della famiglia. Se C (τ ′, B′) e C (τ ′′, B′′) sono duerappresentazioni dello stesso insieme cilindrico C, abbiamo µτ ′ (B

′) = µτ ′′ (B′′). La

dimostrazione è elementare ma un po’ laboriosa da scrivere, per cui la isoliamo nelLemma 1.La verifica che µ, così definita, è finitamente additiva su A, si esegue nel seguente

modo: presi degli insiemi disgiunti C1, ..., Ck ∈ A, c’è una sequenza τ = (t1, ..., tn)tale che tutti gli insiemi Ci possono essere rappresentati tramite τ , cioè esistonoB1, ..., Bk ∈ En, oltretutto disgiunti, tali che Cj = C (τ , Bj), j = 1, ..., k. Valek⋃j=1

Cj = C

(τ ,

k⋃j=1

Bj

)per cui

µ

(k⋃j=1

Cj

)= µτ

(k⋃j=1

Bj

)=

k∑j=1

µτ (Bj) =k∑j=1

µ (Cj)

dove il passaggio intermedio si basa sull’additività di µτ su En. L’additività su A siriconduce cioè a quella di un’opportuna distribuzione di dimensione finita.Passo 2 (continuità della misura). Dobbiamo infine dimostrare la continuità in ∅.

Sia Cn è una successione di eventi diA decrescente con intersezione vuota. Dobbiamodimostrare che limn→∞ µ (Cn) = 0.Facciamo una piccola digressione che può aiutare a capire la dimostrazione. Ci sono

alcune famiglie di successioni Cn per cui la dimostrazione è facile. Gli esercizi 2 e3 illustrano esempi in cui ci si può ricondurre ad usare una singola distribuzione didimensione finita, un po’come nella verifica fatta sopra dell’additività. In questi casi,la dimostrazione che limn→∞ µ (Cn) = 0 è facile. Se ci si potesse restringere ad insiemicilindrici come quelli descritti agli esercizi 2 e 3, non ci sarebbe bisogno dell’ipotesi diregolarità dello spazio E.

Page 9: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

1.2. TEOREMA DI ESTENSIONE DI KOLMOGOROV 9

Ma le famiglie di insiemi cilindrici descritte da tali esercizi non sono algebre. Trale successioni di insiemi cilindrici esistono esempi, come quello dell’esercizio 4, in cuinon si vede come ricondursi ad usare una singola distribuzione di dimensione finita.Facendo però riferimento a concetti topologici, precisamente alla compattezza, c’è

un’altra classe in cui la dimostrazione che limn→∞ µ (Cn) = 0 si riesce a completarefacilmente. Supponiamo che la successione Cn di eventi di A decrescente con inter-sezione vuota abbia la forma Cn = C (τn, Kn) con Kn insieme compatto (per inciso, seE non è compatto, questa rappresentazione è unica, quando esiste). Allora gli insiemiKn non possono essere tutti diversi dal vuoto. Rimandiamo la verifica al Lemma 2.Ma allora, se per un certo n0 l’insieme Kn0 è vuoto, vale µ (Cn0) = 0, da cui discende(per monotonia) µ (Cn) = 0 per ogni n ≥ n0 e quindi anche limn→∞ µ (Cn) = 0.L’idea della dimostrazione allora è la seguente: data una rappresentazione Cn =

C (τn, Bn) degli insiemi cilindrici della successione, fissato ε > 0, usando la proprietàdi regolarità dello spazio E si può trovare una successione di compatti Kn, Kn ⊂ Bn

tali che, detto Dn l’insieme cilindrico di base Kn (invece che Bn) e coordinate τn,insieme che verifica Dn ⊂ Cn, vale

µ (Cn)− µ (Dn) = µ (Cn\Dn) ≤ ε.

Se riusciamo a trovare Kn in modo che Dn sia anche decrescente, allora per ilLemma 2, limn→∞ µ (Dn) = 0. Questo implica che esiste n0 ≥ 0 tale che per ognin ≥ n0, µ (Cn) ≤ ε. Per l’arbitrarietà di ε si ottiene limn→∞ µ (Cn) = 0.L’unico punto che richiede un attimo di lavoro è fare in modo che Dn sia decres-

cente. Sia quindi, fissato ε > 0, K01 una successione di compatti, K0

n ⊂ Bn, tali cheµτn (Bn\K0

n) < ε2n(essi esistono per la regolarità di E). Indichiamo con D0

n la succes-sione degli insiemi cilindrici di base K0

n e coordinate τn; D0n ⊂ Cn in quanto K0

n ⊂ Bn,ma non sappiamo se D0

n è decrescente. Poniamo Dn = D01 ∩ ... ∩ D0

n. SicuramenteDn è una successione di insiemi cilindrici decrescente. Mostriamo che esistono deicompatti Kn ⊂ Bn, tali che Dn ha base Kn e coordinate τn; e µ (Cn\Dn) ≤ ε.Gli insiemi Dn hanno la forma

Dn =f |τ1 ∈ K0

1 , ..., f |τn ∈ K0n

.

Si immagini l’esempio D2 =f |(t1,t2) ∈ K0

1 , f |(t2,t3) ∈ K02

. Si può descrivere nella

forma

D2 =f |(t1,t2,t3) ∈ K0

1 × E, f |(t1,t2,t3) ∈ E ×K02

=f |(t1,t2,t3) ∈

(K0

1 × E)∩(E ×K0

2

)e l’insieme (K0

1 × E)∩ (E ×K02) è compatto. Il caso generale si scrive con fatica ma è

identico. Quindi esiste Kn ⊂ Bn, tali che Dn ha base Kn e coordinate τn.Vale poi (si osservi cheD0

k ⊂ Ck ⊂ Cn; si scriva inoltreCn\Dn = Cn∩(D01 ∩ ... ∩D0

n)c)

Cn\Dn =(Cn\D0

1

)∪(Cn\D0

2

)∪ ... ∪

(Cn\D0

n

)⊂(C1\D0

1

)∪(C2\D0

2

)∪ ... ∪

(Cn\D0

n

)

Page 10: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

10 CAPITOLO 1. INTRODUZIONE AI PROCESSI STOCASTICI

da cui

µ (Cn\Dn) ≤n∑k=1

µ(Ck\D0

k

)≤

n∑k=1

ε

2k≤ ε.

La dimostrazione è completa.Nella dimostrazione del seguente lemma usiamo la notazione |τ | per la cardinalità

di τ ∈ S. Se τ = (t1, ..., tn), vale |τ | = n.

Lemma 1 Se C (τ ′, B′) e C (τ ′′, B′′) sono due rappresentazioni dello stesso insiemecilindrico C, abbiamo µτ ′ (B

′) = µτ ′′ (B′′).

Proof. Se vale τ ′ = τ ′′, si può riconoscere che vale anche B′ = B′′. In questo caso latesi è ovvia. Se τ ′′ è ottenuta da τ ′ tramite una permutazione degli indici (i1, ..., in),allora B′′ = P(i1,...,in) (B′) e l’invarianza della definizione di µ è garantita dalla proprietà(1.2).Se, cosiderando τ ′ e τ ′′ come insiemi non oridinati, vale τ ′ ⊂ τ ′′, a meno di permu-

tazione delle coordinate risulta B′′ è della forma B′×E|τ ′′|−|τ ′|. Quando |τ ′′| − |τ ′| = 1basta applicare la proprietà (1.3); quando |τ ′′| − |τ ′| > 1 si agisce in |τ ′′| − |τ ′| passisempre con la proprietà (1.3).Se τ ′ e τ ′′, cosiderate come insiemi non oridinati, non sono contenute una nell’altra,

si consideri τ = τ ′ ∩ τ ′′. Esiste B tale che C (τ , B) è una terza rappresentazione; B èla proiezione lungo le coordinate τ di B′ o di B′′. Per capire che è così, si pensi al casoτ ′ = (t1, t2), τ ′′ = (t2, t3) (il caso generale è solo notazionalmente più faticoso): vale

f ∈ ET : (f (t1) , f (t2)) ∈ B′

=f ∈ ET : (f (t2) , f (t3)) ∈ B′′

ovvero

(f (t1) , f (t2) , f (t3)) ∈ B′ × E = (f (t1) , f (t2) , f (t3)) ∈ E ×B′′ .Questo implica che gli insiemi di E3 dati da B′ × E e E × B′′ coincidono. Questo ècompatibile solo con la struttura E ×B × E.Vale allora C (τ ′, B′) = C (τ , B) ma τ ⊂ τ ′, quindi µτ ′ (B

′) = µτ (B). Lo stesso sipuò dire per C (τ ′′, B′′) e quindi µτ ′ (B

′) = µτ ′′ (B′′). La dimostrazione è completa.

Lemma 2 Sia Cn ⊂ A decrescente con intersezione vuota, della forma Cn = C (τn, Kn)con Kn insieme compatto. Allora gli insiemi Kn non possono essere tutti diversi dalvuoto.

Esercizio 2 Sia tn ⊂ T una successione data e sia Cn ⊂ A della formaCn = f (t1) ∈ B1,n, ..., f (tn) ∈ Bn,n

dove la famiglia a due indici interi positivi Bk,n ⊂ E soddisfaBk,n+1 ⊂ Bk,n

per ogni k, n ∈ N. Quindi Cn è decrescente. Mostrare in questo caso che, seCn ha intersezione vuota, allora limn→∞ µ (Cn) = 0.

Page 11: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

1.2. TEOREMA DI ESTENSIONE DI KOLMOGOROV 11

Esercizio 3 Sia tn ⊂ T una successione data e sia Cn ⊂ A decrescente. Supponi-amo che esista k0 ∈ N tale che, per n ≥ k0, πk0Cn ⊂ E sia una successione decres-cente con intersezione vuota. Qui πk0 : ET → E è la proiezione f 7−→ πk0 (f) = f (tk0).Allora Cn ha intersezione vuota e limn→∞ µ (Cn) = 0.

Esercizio 4 Sia tn ⊂ T una successione data. Verificare che gli insiemi

Cn =

f (tk−1) < f (tk) < f (tk−1) +

1

n, k = 2, 3, ..., n

non rientrano nei casi trattati dagli esercizi precedenti ma formano una successionedecrescente con intersezione vuota.

Esercizio 5 Data una misura di probabilità λ sui boreliani di uno spazio metrico(X, d), diciamo che essa è tight se per ogni ε > 0 esiste un compatto Kε tale cheλ (Kε) > 1 − ε. Mostrare che il teorema di costruzione dei processi di Kolmogorovcontinua a valere se, invece di supporre che lo spazio metrico E sia σ-compatto, si sup-pone che sia metrico e che ogni distribuzione di dimensione finita µτ , τ ∈ S, sia tight.[Presa τ ∈ S e la corrispondente misura µτ su En, esiste un boreliano Xn ⊂ En che èuno spazio metrico σ-compatto e µτ può essere ristretta ad una misura di probabilitàsu Xn. Il resto della dimostrazione del teorema di Kolmogorov è inalterata.]

Osservazione 3 Ogni misura di probabilità λ sui boreliani uno spazio metrico com-pleto e separabile (polacco) è tight. La proprietà di essere polacco passa al prodottocartesiano finito. Allora il teorema di Kolmogorov vale se, invece di supporre che lospazio metrico E sia σ-compatto, si suppone che sia polacco.

1.2.1 Processi gaussiani

Ricordiamo che la densità gaussiana standard è la funzione f (x) = 1√2π

exp (−x2/2) ela densità gaussiana N (µ, σ2) è la funzione

f (x) =1√

2πσ2exp

(−(x− µ)2

2σ2

).

Inoltre, un vettore aleatorio Z = (Z1, ..., Zn) è gaussiano standard se ha densitàcongiunta

f (x1, ..., xn) =n∏i=1

1√2π

exp

(−x

2i

2

)= (2π)−n/2 exp

(−x

21 + ...+ x2

n

2

)(questo equivale a chiedere che le componenti Z1, ..., Zn siano gaussiane standard in-dipendenti), mentre un vettore Y = (Y1, ..., Ym) si dice gaussiano se si può rappre-sentare nella forma Y = AZ + b con A matrice n×m, Z vettore gaussiano standard,

Page 12: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

12 CAPITOLO 1. INTRODUZIONE AI PROCESSI STOCASTICI

b ∈ Rm. Tra le equivalenze con coi si può riscrivere questa definizione, ricordiamola seguente: un vettore Y = (Y1, ..., Ym) è gaussiano se e solo se la v.a.

∑mi=1 λiYi è

gaussiana per ogni scelta di (λ1, ..., λm) ∈ Rm. Segue subito da queste definizioni chese Y = (Y1, ..., Ym) è un vettore gaussiano, B è una matrice m × k e c ∈ Rk, allora ilvettore aleatorio BY + c è un vettore gaussiano (in Rk).Ricordiamo inoltre che per matrice di covarianza di un vettore Y = (Y1, ..., Ym) si

intende la matrice Q ∈ Rm×m definita da

Qij = Cov (Yi, Yj) , i, j = 1, ...,m.

E’simmetrica e semi-definita positiva. La media (o vettore dei valori medi) è il vettoredi coordinate E [Yi], i = 1, ...,m. Un vettore gaussiano standard Z = (Z1, ..., Zn)ha media nulla e covarianza pari all’identità di Rn. Un vettore gaussiano della formaY = AZ+b come sopra, ha media b e matrice di covarianza Q = AAT . Più in generale,ricordiamo la seguente proposizione:

Proposizione 3 Se Y = (Y1, ..., Ym) è un vettore gaussiano di media µY e covarianzaQY , B è una matrice m × k e c ∈ Rk, allora il vettore aleatorio BY + c è un vettoregaussiano di media BµY + c e covarianza

Q = AQYAT .

Sia Y = (Y1, ..., Ym) un vettore gaussiano di media µ e covarianza Q. QuandodetQ 6= 0, Y ha densità di probabilità congiunta (la sua legge è assolutamente continuarispetto alla misura di Lebesgue di Rm), data da

f (x) =1√

(2π)n detQexp

(−〈Q

−1 (x− µ) , (x− µ)〉2

)dove x = (x1, ..., xn). Altrimenti, se detQ = 0, la legge di Y è singolare rispetto allamisura di Lebesgue di Rm ed è concentrata su un sottospazio proprio (precisamenteuna varietà affi ne, di codimensione maggiore di zero).Chiameremo gaussiana ogni misura di probabilità su (Rn,B (Rn)) che sia legge di

una v.a. gaussiana. Equivalentemente, una misura di probabilità ρ su (Rn,B (Rn)) ègaussiana se la sua legge immagine su (R,B (R)) attraverso qualsiasi proiezione uni-dimensionale è una misura con densità gaussiana o una delta di Dirac. Ricordiamo chevale il seguente risultato:

Proposizione 4 Dati un vettore b ∈ Rn ed una matrice Q ∈ Rn×n simmetrica e semi-definita positiva, esiste una ed una sola misura gaussiana su (Rn,B (R)n) che ha b comevettore delle medie e Q come matrice di covarianza.

Fatte queste premesse sui vettori gaussiani, possiamo definire ed analizzare i processigaussiani. Osserviamo che anche in questo paragrafo l’insieme T è qualsiasi.

Page 13: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

1.2. TEOREMA DI ESTENSIONE DI KOLMOGOROV 13

Definizione 2 Un processo a valori reali X = (Xt)t∈T si dice gaussiano se tutte lesue marginali di dimensione finita (Xt1 , ..., Xtn) sono vettori gaussiani. Analogamente,

una misura di probabilità su(RT ,B (R)T

)si dice gaussiana se tutte le sue distribuzioni

di dimensione finita sono gaussiane.

Un processo reale è quindi gaussiano se e solo se la sua legge su(RT ,B (R)T

gaussiana.Se T è un sottoinsieme di uno spazio euclideo, unione numerabile di compatti, dici-

amo che una misura su (C (T,E) ,B (C (T,E))) è gaussiana se tutte le sue distribuzionidi dimensione finita sono gaussiane.Un processo gaussiano ha la legge caratterizzata da poche funzioni: la funzione

valor medio m (t) = E [Xt], t ∈ T e la funzione di covarianza C (t, s) = Cov (Xt, Xs),t, s ∈ T .

Proposizione 5 Se due processi gaussiani hanno le stesse funzioni m (t) e C (t, s),allora hanno la stessa legge.

Proof. La legge è identificata dalle distribuzioni di dimensione finita. Le leggi dei dueprocessi sono misure gaussiane, con distribuzioni di dimensione finita gaussiane. Taligaussiane, diciamo in Rn, sono univocamente determinate dai loro vettori medi e dallematrici di covarianza, che però a loro volta hanno come componenti le valutazioni dellefunzioni m (t) e C (t, s) in opportuni punti, quindi coincidono.Ancor più economica è la descrizione nel caso di processi stazionari. Supponiamo

che sull’insieme T sia definita un’operazione di somma +, cioè t + s ∈ T se t, s ∈ T .Ad esempio si possono considerare T = Rn o T = [0,∞) con l’usuale somma euclidea.

Definizione 3 Un processo stocasticoX = (Xt)t∈T a valori in (E, E) si dice stazionarioin senso stretto se, per ogni τ = (t1, ..., tn) ∈ S le leggi di (Xt1 , ..., Xtn) e (Xt1+h, ..., Xtn+h)coincidono per ogni h ∈ T .

Definizione 4 Un processo reale X = (Xt)t∈T , con E [X2t ] < ∞ per ogni t ∈ T , si

dice stazionario in senso lato o debole se

m (t+ h) = m (t)

C (t+ h, s+ h) = C (t, s)

per ogni h, s, t ∈ T .

Nel caso di un processo reale, la stazionarietà in senso stretto implica quella insenso lato, ma non viceversa (non possiamo risalire alle leggi dai momenti di ordineuno e due).

Page 14: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

14 CAPITOLO 1. INTRODUZIONE AI PROCESSI STOCASTICI

Proposizione 6 Se un processo gaussiano è stazionario in senso lato allora è anchestazionario in senso stretto.

Proof. Dati τ = (t1, ..., tn) ∈ S e h ∈ T , le leggi di (Xt1 , ..., Xtn) e (Xt1+h, ..., Xtn+h),essendo gaussiane, sono identificate dai vettori medi di componenti E [Xtk ] e E [Xtk+h],che coincidono essendom (tk + h) = m (tk), k = 1, ..., n, e dalle matrici di covarianza dicomponenti Cov

(Xti , Xtj

)eCov

(Xti+h, Xtj+h

), che coincidono essendoC (ti + h, tj + h) =

C (ti, tj). Quindi le leggi di (Xt1 , ..., Xtn) e (Xt1+h, ..., Xtn+h) coincidono ed abbiamo lastazionarietà in senso stretto.Supponiamo che T sia un gruppo rispetto alla somma + e sia 0 l’elemento neutro.

In questo caso la stazionarietà in senso lato permette di descrivere la legge del processogaussiano in modo estremamente economico.

Proposizione 7 Se un processo gaussiano è stazionario in senso lato allora la sualegge è identificata dal numero m := E [Xt] e dalla funzione di una variabile

C (t) := Cov (Xt, X0) , t ∈ T.

Proof. Le distribuzioni di dimensione finita sono identificate dalle funzioni m (t) eC (t, s) ma queste, a loro volta, per la stazionarietà in senso lato sono l’una costante,m (t) = m, l’altra identificata dai suoi valori nei punti (t, s) della forma (r, 0), in quanto

C (t− s, 0) = C (t, s)

(h = s nella definizione di stazionarietà).Concludiamo con un risultato di esistenza.

Proposizione 8 Date due funzioni m (t) e C (t, s), t, s ∈ T , se C (t, s) = C (s, t) evale

n∑i,j=1

C (ti, tj) ξiξj ≥ 0

per ogni n ∈ N, (t1, ..., tn) ∈ T n, (ξ1, ..., ξn) ∈ Rn, allora esiste un processo gaussianoche ha queste funzioni come media e covarianza.

Proof. Basta costruire una misura gaussiana su(RT ,B (R)T

)e prendere il processo

canonico. Per il teorema di costruzione di Kolmogorov ((E, E) = (R,B (R)) soddis-fa l’ipotesi del teorema), basta costruire una famiglia consistente µτ ; τ ∈ S di dis-tribuzioni di dimensione finita, che siano gaussiane (quindi la misura ed il processosaranno gaussiani) e tali che valga la seguente proprietà: presa τ = (t1, ..., tn) ∈ S, se(Xt1 , ..., Xtn) è un vettore aleatorio di legge µτ , quindi gaussiano, valga E [Xtk ] = m (tk)e Cov

(Xti , Xtj

)= C (ti, tj) per ogni k, i, j = 1, ..., n.

Page 15: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

1.2. TEOREMA DI ESTENSIONE DI KOLMOGOROV 15

Dato τ = (t1, ..., tn) ∈ S, sia µτ la misura gaussiana su Rn avente vettore medio dicomponenti m (tk) e matrice di covarianza di componenti C (ti, tj), per ogni k, i, j =1, ..., n. Un tale misura esiste ed è unica. Infatti la matrice di componenti C (ti, tj) èsemidefinita positiva, per ipotesi, ed abbiamo ricordato sopra che un vettore ed unamatrice semidefinita positiva definiscono univocamente una misura gaussiana. La va-lidità della proprietà detta poco sopra (E [Xtk ] = m (tk) e Cov

(Xti , Xtj

)= C (ti, tj),

se (Xt1 , ..., Xtn) ha legge µτ ) è assicurata per definizione. Resta da verificare la consis-tenza. Omettiamo, per non appesantire la trattazione, la verifica della proprietà (1.2)e limitiamoci alla (1.3).Con le notazioni usate in precedenza, τ = (t1, ..., tn) ∈ S, τ n = (t1, ..., tn−1),

πn : En → En−1 che manda la generica sequenza (x1, ..., xn) ∈ En nella sequenza(x1, ..., xn−1) ∈ En−1, dobbiamo dimostrare che

µτ n = πn (µτ ) .

La trasformazione πn è lineare e quindi i vettori delle medie mτ n e mτ di µτ n e µτrispettivamente sono legati dalla relazione mτ n = πnmτ , le matrici di covarianza Qτ n

e Qτ di µτ n e µτ rispettivamente sono legate dalla relazione Qτ n = πnQτπTn (us-

ando la notazione πn anche per la matrice associata alla trasformazione nella basecanonica). Il vettore mτ ha componenti m (tk), k = 1, ..., n, quindi πnmτ è il vettore(m (t1) , ...,m (tn−1)) ∈ En−1, che è proprio il vettore delle medie di µτ n .La verifica della proprietà Qτ n = πnQτπ

Tn è elementare ma noiosa da scrivere. Per

completezza la riportiamo. La matrice πn ha componenti (πn)j,α = δj,α, per j =

0, ..., n−1, α = 1, ..., n. Quindi la matrice πTn,i ha componenti(πTn)β,k

= (πn)k,β = δk,β,per k = 0, ..., n− 1, β = 1, ..., n. Quindi, dall’identità

(πnQτπ

Tn

)jk

=n∑

α,β=1

(πn)j,α (Qτ )α,β(πTn)β,k

si deduce, per j, k = 0, ..., n− 1,

=

n∑α,β=1

δj,αC (tα, tβ) δk,β = C (tj, tk) .

Questa è la matrice Qτ n . La dimostrazione è completa.

Esercizio 6 Costruire un processo X con T = [0, 1] che si annulli in t = 0 e t = 1q.c., ed invece Xt abbia densità di probabilità strettamente positiva per ogni t ∈ (0, 1)(un “ponte”stocastico).

Page 16: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

16 CAPITOLO 1. INTRODUZIONE AI PROCESSI STOCASTICI

1.2.2 Filtrazioni

A partire da questo paragrafo supponiamo che T sia un intervallo di R, o più precisa-mente per fissare le idee

T = [0,∞).

Si intuisce che si possa svolgere una teoria più generale ma gli esempi che tratteremonel corso non la motivano.Chiamiamo filtrazione su (Ω,F , P ) una famiglia (Ft)t∈T di σ-algebre di insiemi di

Ω, Ft ⊂ F per ogni t ∈ T , che sia crescente: Fs ⊂ Ft se s < t ∈ T .Un processo X = (Xt)t∈T definito su (Ω,F , P ) a valori in (E, E) si dice adattato alla

filtrazione (Ft)t∈T se per ogni t ∈ T la funzione Xt è misurabile da (Ω,Ft) in (E, E).Supponiamo T = [0,∞); se T è un intervallo che contiene 0 la definizione è analoga.

Il processo X si dice progressivamente misurabile se per ogni t ≥ 0 l’applicazione(s, ω) 7−→ Xs (ω) da ([0, t]× Ω,B ([0, t])⊗Ft) in (E, E) è misurabile.Se X è progressivamente misurabile, allora è misurabile ed adattato. Viceversa,

vale ad esempio il seguente risultato.

Proposizione 9 Sia E uno spazio topologico, E = B (E). Se X è adattato e q.c.continuo a destra (oppure q.c. continuo a sinistra) allora è progressivamente misurabile.

Proof. Sia G una σ-algebra su Ω. Il seguente criterio di misurabilità è noto: seuna funzione f : [a, b] × Ω → E è continua a destra ed ω 7−→ f (t, ω) è misura-bile da (Ω,G) in (E, E) per ogni t ∈ [a, b], allora (t, ω) 7−→ f (t, ω) è misurabile da([a, b]× Ω,B ([a, b])⊗ G) in (E, E). La dimostrazione si fa ad esempio approssimandof con funzioni continue a destra e costanti a tratti in t.Basta allora applicare questo criterio ad ogni restrizione di X ad insiemi della forma

[0, t]× Ω. La dimostrazione è completa.Un insieme N ⊂ Ω è trascurabile rispetto a (Ω,F , P ) se P ∗ (N) = 0 dove P ∗ (A) =

inf P (B) ;B ∈ F , A ⊂ B. QuindiN ⊂ Ω è trascurabile se inf P (B) ;B ∈ F , N ⊂ B =0. Indichiamo con N l’insieme degli insiemi trascurabili rispetto a (Ω,F , P ). Una fil-trazione (Ft)t∈T è completa se ogni Ft contiene N . E’equivalente che F0 contenga N .[Una σ-algebra G si dice completa quando contiene gli insiemi trascurabili rispetto a(Ω,G, P ). Quindi il chiedere che F0 contenga N - famiglia degli insiemi trascurabilirispetto a (Ω,F , P ) - o che sia completa sono affermazioni differenti.]E’comodo che tutte le σ-algebre di una filtrazione contengano N . Altrimenti si

creano tante piccole complicazioni un po’innaturali; ad esempio se Y è modificazionedi un processo adattato X e la filtrazione non è completa, non si può concludere cheanche Y sia adattato. Infatti, preso B ∈ E e t ∈ T , l’evento Yt ∈ B può differire daXt ∈ B per un insieme di N , ma tale insieme potrebbe non appartenere a Ft, quindila proprietà Xt ∈ B ∈ Ft può non implicare Yt ∈ B ∈ Ft. Invece, vale:

Osservazione 4 Se (Ft)t∈T è completa, X è adattato ed Y è una modificazione di X,allora Y è adattato.

Page 17: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

1.2. TEOREMA DI ESTENSIONE DI KOLMOGOROV 17

Una filtrazione (Ft)t∈T si dice continua a destra se per ogni t ∈ T

Ft =⋂ε>0

Ft+ε.

Questa condizione interviene ogni tanto nei teoremi successivi, e la completezza ancoradi più, per cui spesso per unificare gli enunciati di una teoria si assume sin dall’inizioche la filtrazione di riferimento della teoria sia completa a continua a destra. Diremoche una filtrazione soddisfa le condizioni abituali se è completa e continua a destra.Si ricordi che l’intersezione (arbitraria) di σ-algebre è una σ-algebra, quindi

⋂ε>0

Ft+ε

è sempre una σ-algebra. Invece l’unione no; indicheremo col simbolo F∨G la più piccolaσ-algebra che contiene F ∪ G; per cui scriveremo ad esempio

∨t≥0

Ft per la più piccola

σ-algebra che contiene ogni Ft, denotata con F∞.Dato un processo stocastico X, ad esso è associata la filtrazione generata da X

definita daF00t = σ Xs; s ∈ T, s ≤ t

A livello interpretativo, gli eventi di F00t sono gli eventi conoscibili al tempo t se os-

serviamo il processo X. La notazione F00t non è universale ed è usata qui solo per

distinguere questa filtrazione dalle seguenti.Essendo comodo che la filtrazione di riferimento sia completa, si introduce la fil-

trazione (F0t )t∈T definita da F0

t = σ F00t ∪N. La filtrazione (F0

t )t∈T è il completa-mento della filtrazione (F00

t )t∈T (naturalmente questo procedimento si può applicare aqualsiasi filtrazione).Volendo richiedere che la filtrazione sia anche continua a destra, poniamo

Ft =⋂ε>0

F0t+ε.

Osservazione 5 Questa filtrazione è continua a destra: Ft =⋂ε>0

Ft+ε. Infatti, F0t ⊂

Ft (per ogni t ∈ T ) per monotonia di (F0t )t∈T e definizione di Ft, quindi

⋂ε>0

F0t+ε ⊂⋂

ε>0

Ft+ε, per cui Ft ⊂⋂ε>0

Ft+ε per definizione di Ft. Viceversa, Ft+ε ⊂ F0t+2ε per ogni

t ∈ T ed ε > 0, per definizione di Ft, quindi⋂ε>0

Ft+ε ⊂⋂ε>0

F0t+2ε = Ft.

La filtrazione così costruita è la più piccola che soddisfi le condizioni abituali erispetto a cui il processo sia adattato.

Page 18: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

18 CAPITOLO 1. INTRODUZIONE AI PROCESSI STOCASTICI

1.3 Speranza condizionale e probabilità condizionale

1.3.1 Speranza condizionale

Teorema 2 Data una v.a. X a valori reali, integrabile su (Ω,F , P ) ed una σ-algebraG ⊂ F , esiste una v.a. G-misurabile X ′ tale che∫

B

XdP =

∫B

X ′dP

per ogni B ∈ G. Inoltre è unica a meno di P -equivalenze.

La dimostrazione dell’esistenza si basa sul teorema di Radon-Nikodym, l’unicità suun semplice argomento prendendo l’evento B = X ′ > X ′′, se X ′, X ′′ soddisfano lestesse condizioni.

Definizione 5 Sia X una v.a. integrabile su (Ω,F , P ) e sia G una σ-algebra, G ⊂F . Chiamiamo speranza condizionale di X rispetto a G ogni variabile aleatoria G-misurabile X ′ tale che ∫

B

XdP =

∫B

X ′dP

per ogni B ∈ G. Chiameremo con lo stesso nome anche la classe di P -equivalenza ditali variabili. La speranza condizionale di X rispetto a G viene indicata con E [X|G].Quando scriveremo uguaglianze tra diverse speranze condizonali o tra una speranza

condizionale ed una v.a., si intenderà sempre l’uguaglianza come classi di equivalenza,o P -q.c.

L’intuizione è che, avendo a disposizione il grado di informazione fornito da G, lanostra attesa circa il valore di X è più precisa della semplice E [X] (attesa incon-dizionata), dipende da ciò che si avvera nei limiti della finezza di G, quindi è una v.a.G-misurabile. Inoltre, se B è un atomo di G con P (B) > 0, per cui X ′ deve esserecostante su B, l’identità della definizione dice che

X ′|B =1

P (B)

∫B

XdP

cioèX ′ è una sorta di media locale diX; per un B generale l’identità stabilisce una gen-eralizzazione di tale proprietà. Si risolva il seguente esercizio, per aiutare ulteriormentel’intuizione.

Esercizio 7 Sia G generata da una partizione misurabile B1, ..., Bn. Allora E [X|G] =∑ni=1

(1

P (Bi)

∫BiXdP

)· 1Bi. In altre parole, E [X|G] è costante su ciascun Bi e lì vale

la media di X su Bi, 1P (Bi)

∫BiXdP .

Page 19: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

1.3. SPERANZA CONDIZIONALE E PROBABILITÀ CONDIZIONALE 19

Proof. La v.a. X ′ =∑n

i=1

(1

P (Bi)

∫BiXdP

)· 1Bi è G-misurabile. Prendiamo Y = 1B1 .

Vale

E [XY ] =

∫B1

XdP

E [X ′Y ] =n∑i=1

(1

P (Bi)

∫Bi

XdP

)E [1Bi1B1 ]

=

n∑i=1

(1

P (Bi)

∫Bi

XdP

)δi1P (B1) =

∫B1

XdP

e quindi sono uguali.

Osservazione 6 La definizione data sopra equivale a chiedere che X ′ sia G-misurabilee valga

E [XY ] = E [X ′Y ]

per ogni v.a. Y limitata G-misurabile. Un’implicazione è ovvia (prendendo Y dellaforma 1B con B ∈ G). Per l’altra, dalla definizione, che si riscrive E [X1B] = E [X ′1B],discende che E [XY ] = E [X ′Y ] per Y della forma Y =

∑yi1Bi, yi ∈ R, Bi ∈ G. Con

variabili di quel tipo possiamo approssimare dal basso puntualmente ogni Y limitataG-misurabile e passare al limite per convergenza monotona.

Proposizione 10 Siano X, Y , Xn integrabili, G una sotto σ-algebra di F . Valgonole seguenti affermazioni:i) Se G ′ ⊂ G ⊂ F allora E [E [X|G] |G ′] = E [X|G ′]; in particolare (G ′ = ∅,Ω),

E [E [X|G]] = E [X]ii) Se X è G-misurabile ed XY è integrabile, allora E [XY |G] = XE [Y |G]iii) Se X è indipendente da G allora E [X|G] = E [X]iv) E [aX + bY + c|G] = aE [X|G] + bE [Y |G] + cv) Se Xn è una successione di v.a. monotona non decrescente, con X = limn→∞

Xn integrabile, allora E [Xn|G]→ E [X|G] q.c.

La verifica di queste proprietà è un utile esercizio; rimandiamo comunque ai corsi dibase di Probabilità. Utile tecnicamente è la seguente generalizzazione delle proprietà(ii)-(iii). Si noti che ϕ è G ′-misurabile nel suo secondo argomento, X è G-misurabile, eG, G ′ sono σ-algebre indipendenti.

Proposizione 11 Dato uno spazio probabilizzato (Ω,F , P ) ed uno spazio misurabile(E, E), siano G ⊂ F e G ′⊂ F due σ-algebre indipendenti. Sia ϕ : (E × Ω, E ⊗ G ′) →(R,B (R)) misurabile limitata e sia X : (Ω,G)→ (E, E) misurabile. Allora

E [ϕ (X, ·) |G] = Φ (X)

dove Φ è definita daΦ (x) := E [ϕ (x, ·)] , x ∈ E.

Page 20: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

20 CAPITOLO 1. INTRODUZIONE AI PROCESSI STOCASTICI

Proof. Supponiamo ϕ a variabili separate, ϕ (x, ω) = ϕ1 (x)ϕ2 (ω), con ϕ1 : (E, E)→(R,B (R)), ϕ2 : (Ω,G ′)→ (R,B (R)) misurabili limitate. Allora

E [ϕ (X, ·) |G] = E [ϕ1 (X)ϕ2 (·) |G] = ϕ1 (X)E [ϕ2 (·)]Φ (X) = E [ϕ (x, ·)]x=X = E [ϕ1 (x)ϕ2 (·)]x=X = ϕ1 (X)E [ϕ2 (·)]

quindi la formula è verificata. Per linearità, vale per combinazioni lineari di funzioniϕ della forma ϕ (x, ω) = ϕ1 (x)ϕ2 (ω). Si passa al caso generale per convergenzamonotona, usando la stabilità della speranza condizionale rispetto a tale convergenza.

Apparentemente potrebbe sembrare che, rimuovendo l’ipotesi che G ′ sia indipen-dente da G, ovvero prendendo una qualsiasi funzione ϕ : (E × Ω, E ⊗ F)→ (R,B (R))misurabile limitata, valga l’identità

E [ϕ (X, ·) |G] = E [ϕ (x, ·) |G] |x=X

di cui quella della proposizione è un caso particolare. Qui però si pone un problema diversioni: per ogni x la speranza condizionale E [ϕ (x, ·) |G] è definita a meno di insiemidi misura nulla e quindi la sostituzione E [ϕ (x, ·) |G] |x=X non ha un senso ovvio.Tra i risultati rilevanti citiamo anche il seguente. Se X è di quadrato integra-

bile, E [X|G] è la proiezione ortogonale di X sul sottospazio chiuso L2 (Ω,G, P ) diL2 (Ω,F , P ) (funzioni di quadrato integrabile misurabili rispetto a G e F rispettiva-mente).

1.3.2 Probabilità condizionale

Sia (Ω,F , P ) uno spazio probabilizzato. Dati due eventi A,B ∈ F con P (B) > 0,chiamiamo probabilità condizionale di A sapendo B il numero

P (A|B) :=P (A ∩B)

P (B).

Data una partizione misurabile B1, ..., Bn di Ω, possiamo definire in numeriP (A|Bi) per tutti gli i = 1, ..., n tali che P (Bi) > 0. Potremmo dire che la famiglia dinumeri P (A|Bi) è la probabilità di A condizionata alla partizione B1, ..., Bn. Inanalogia col caso della speranza condizionale, potremmo codificare questa informazionenella funzione

n∑i=1

P (A|Bi) · 1Bi

(se per un certo i vale P (Bi) = 0, la funzione 1Bi è equivalente a quella nulla e quindipossiamo definire P (A|Bi) arbitrariamente). C’è quindi una funzione G-misurabile,P (A|G) :=

∑ni=1 P (A|Bi) · 1Bi , che racchiude le informazioni utili circa la probabilità

Page 21: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

1.3. SPERANZA CONDIZIONALE E PROBABILITÀ CONDIZIONALE 21

condizionale di A rispetto ai vari elementi della partizione B1, ..., Bn e quindi delleinformazioni contenute nella σ-algebra G.Tra l’altro, si noti che, sempre nel caso particolare di G generata da B1, ..., Bn,

valeE [1A|G] = P (A|G)

in quanto∫Bi

1AdP = P (A ∩Bi). Inoltre,

P (A) = E [P (A|G)]

o più in generale

P (A ∩B) =

∫B

P (A|G) dP

per ogni B ∈ G (si verifichino queste due identità). Queste ultime formule sono unariscrittura compatta dell’utilissima formula di fattorizzazione (o delle probabilità totali)

P (A) =n∑i=1

P (A|Bi)P (Bi)

e sua generalizazione a P (A ∩B).Possiamo estendere queste definizioni e proprietà al caso di una σ-algebra G ⊂ F

più generale, raggiungendo due livelli di generalizzazione.Innanzi tutto, data G ⊂ F qualsiasi, poniamo

P (A|G) := E [1A|G]

detta probabilità condizionale di A rispetto alla σ-algebra G. Quindi P (A|G), definitaa meno di P -equivalenza (o come classe di equivalenza), è una v.a. G-misurabile taleche ∫

B

P (A|G) dP =

∫B

1AdP = P (A ∩B)

per ogni B ∈ G. Questa identità, data ora per definizione, è una versione generalizzatadella formula di fattorizzazione. La probabilità condizionale di A rispetto ad una σ-algebra G è definita tramite la formula di fattorizzazione; o in altre parole, è quellav.a. che fa funzionare la formula di fattorizzazione anche nel caso non finito (cioè diuna σ-algebra generale invece che generata da una partizione finita). Questo è il primolivello.C’è poi un secondo livello, più complesso. Nasce dalla seguente domanda natu-

rale. Per ogni A ∈ F , P (A|G) è una classe di equivalenza, o comunque è definita ameno di insiemi trascurabili. Non ha senso fissare ω ∈ Ω e considerare la funzioneA 7−→ P (A|G) (ω). Possiamo scegliere un rappresentante P (A|G) da ciascuna classe

di equivalenza in modo che la funzione d’insieme A 7−→ P (A|G) (ω) sia una misura di

Page 22: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

22 CAPITOLO 1. INTRODUZIONE AI PROCESSI STOCASTICI

probabilità? Se prendiamo degli insiemi disgiunti A1, A2, ... ∈ F , nel senso delle classidi equivalenza (oppure quasi certamente per ogni scelta di rappresentanti) vale

P

(⋃i

Ai|G)

=∑i

P (Ai|G) .

Ma non possiamo sperare che valga per P (·|G) (ω), con ω fissato, senza operare unascelta molto oculata e non banale dei rappresentanti.

Definizione 6 Dati (Ω,F , P ) e G ⊂ F , chiamiamo versione regolare della probabilitàcondizionale rispetto a G una funzione (A, ω) 7−→ PG (A, ω), definita su F× Ω, con leseguenti proprietà:i) per P -q.o. ω, la funzione d’insieme A 7−→ PG (A, ω) è una misura di probabilità

su (Ω,F)ii) per ogni A ∈ F , la funzione ω 7−→ PG (A, ω) è misurabile ed appartiene alla

classe di equivalenza P (A|G).

Vale il seguente teorema non banale:

Teorema 3 Se (Ω, d) è uno spazio metrico completo e separabile (spazio polacco) edF = B (Ω), esiste sempre versione regolare della probabilità condizionale rispetto adogni G ⊂ B (Ω).

Per la versione regolare valgono, come sopra,

PG (A, ·) = E [1A|G]∫B

PG (A, ·) dP = P (A ∩B)

per ogni A ∈ F , B ∈ G. In più però, possiamo definire integrali del tipo∫Ω

X (ω′)PG (dω′, ω)

con ω fissato ed X ad esempio limitata misurabile. Si può allora dimostrare che vale∫Ω

X (ω′)PG (dω′, ·) = E [X|G]

(nel senso che l’integrale a sinistra è un elemento della classe di equivalenza a destra).Questo inverte il procedimento visto sopra: a livello uno si può definire la probabil-ità condizionale a partire dalla speranza condizionale; a livello due si può definire lasperanza condizionale a partire da una versione regolare della probabilità condizionale.

Page 23: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

1.4. PROPRIETÀ DI MARKOV 23

Concludiamo con alcune varianti dei concetti precedenti. Data una v.a. X su(Ω,F , P ) ed un evento A ∈ F indichiamo con σ (X) la più piccola σ-algebra rispetto acui X è misurabile e con P (A|X) la v.a. P (A|σ (X)). Per un teorema di Doob, esisteuna funzione misurabile gA : R → R tale che P (A|X) = gA (X). A causa di questo,viene anche usata la notazione P (A|X = x) per intendere gA (x):

P (A|X = x) = gA (x) .

Ovviamente in generale P (X = x) non è positivo, per cui non sarebbe lecito definireP (A|X = x) come P (A ∩ X = x) /P (X = x).

1.4 Proprietà di Markov

La proprietà di Markov si può esprimere a vari livelli, sia per un singolo processostocastico, sia per una famiglia di processi, sia per una famiglia di misure di proba-bilità relativamente ad uno stesso processo. Inoltre si può riscrivere in innumerevolimodi. Infine, esiste la proprietà di Markov e quella di Markov forte. Illustriamo quiuna possibilità tra le tante, riservandoci in seguito di descrivere altri casi ed altreformulazioni.Sia X = (Xt)t≥0 un processo stocastico su (Ω,F , P ) a valori nello spazio misurabile

(E, E). Sia (Ft)t≥0 una filtrazione (qualsiasi) in (Ω,F , P ).

Definizione 7 Il processo X si dice di Markov se

E [ϕ (Xt+h) |Ft] = E [ϕ (Xt+h) |Xt] (1.4)

per ogni funzione ϕ : (E, E)→ (R,B (R)) misurabile limitata, ed ogni t ≥ 0, h > 0.

Proposizione 12 Chiedere l’uguaglianza E [ϕ (Xt+h) |Ft] = E [ϕ (Xt+h) |Xt] equivalesemplicemente a chiedere che E [ϕ (Xt+h) |Ft] sia σ (Xt)-misurabile. Inoltre, equivale achiedere che per ogni A ∈ E valga

P (Xt+h ∈ A|Ft) = P (Xt+h ∈ A|Xt) . (1.5)

Oppure, che per ogni A ∈ E la v.a. P (Xt+h ∈ A|Ft) sia σ (Xt)-misurabile.

Proof. Se vale l’identità (1.4), allora E [ϕ (Xt+h) |Ft] è σ (Xt)-misurabile. Viceversa,supponiamo che Y := E [ϕ (Xt+h) |Ft] sia σ (Xt)-misurabile. Dal momento che Ysoddisfa l’uguaglianza E [Y Z] = E [ϕ (Xt+h)Z] per ogni v.a. Z che sia Ft-misurabile,la soddisfa anche per tutte le v.a. Z che siano σ (Xt)-misurabili. Quindi Y è unasperanza condizionale di ϕ (Xt+h) sapendo Xt, ovvero vale (1.4).Infine, se vale (1.4), allora prendendo ϕ (x) = 1x∈A vale (1.5). Viceversa, se vale

(1.5) per ogni A ∈ E , vale (1.4) per le indicatrici ϕ (x) = 1x∈A e poi per linearità per le

Page 24: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

24 CAPITOLO 1. INTRODUZIONE AI PROCESSI STOCASTICI

loro combinazioni lineari. Si passa alle funzioni misurabili limitate o con un teoremagenerale o con un esplicito passaggio al limite monotono (ogni funzione misurabile limi-tata è limite crescente puntuale di funzioni semplici; poi si usa la convergenza monotonadelle speranze condizionali). L’ultima affermazione si dimostra con ragionamenti simili.

La proprietà di Markov esprime il fatto che ciò che possiamo prevedere del futuroè influenzato in uguale misura dal presente come dal presente incluso il passato. Dettoaltrimenti, il passato non influisce sul futuro, noto il presente. Con un po’di pazienzasi possono dimostrare varie formulazioni equivalenti, alcune delle quali ad esempioenfatizzano il ruolo simmetrico del passato e del futuro. Ad esempio, vale:

Proposizione 13 Il processo X è di Markov se e solo se

E[Φ(X|[t,∞)

)Ψ(X|[0,t]

)|Xt

]= E

[Φ(X|[t,∞)

)]E[Ψ(X|[0,t]

)]per ogni coppia di funzioni Φ :

(E[0,∞), E [0,∞)

)→ (R,B (R)), Ψ :

(E[0,t], E [[0,t]

)→

(R,B (R)), misurabili limitate, ed ogni t ≥ 0.

Il futuro è indipendente dal passato, noto il presente.Una classe interessante di processi di Markov è quella dei processi a incrementi

indipendenti, che contiene processi di fondamentale importanza.

Definizione 8 Sia E uno spazio vettoriale. Diciamo che un processo stocastico X =(Xt)t≥0, rispetto ad una filtrazione (Ft)t≥0, ha incrementi indipendenti, se per ognit, h ≥ 0 la v.a. Xt+h −Xt è indipendente da Ft.

Proposizione 14 Un processo a incrementi indipendenti è di Markov.

Proof. Applichiamo la Proposizione 11. Dati t, h ≥ 0, sia G ′=σ Xt+h −Xt, G = Ft.Le σ-algebre G e G ′ sono indipendenti. La v.a. Xt+h − Xt è G-misurabile. Pre-sa una funzione misurabile limitata ψ : (E, E) → (R,B (R)), vogliamo verificare cheE [ψ (Xt+h) |Ft] è σ Xt-misurabile. Scriviamo

E [ψ (Xt+h) |Ft] = E [ψ (Xt +Xt+h −Xt) |Ft]

e consideriamo la funzione ϕ (x, ω) = ψ (x+Xt+h (ω)−Xt (ω)). Essa è E⊗G ′-misurabile.Quindi sono soddisfatte tutte le ipotesi della Proposizione 11 (conX = Xt), che forniscel’identità

E [ψ (Xt +Xt+h −Xt) |Ft] = E [ϕ (x, ·)] |x=Xt .

Quindi E [ψ (Xt+h) |Ft] è σ Xt-misurabile. La dimostrazione è completa.Introduciamo ora un concetto collegato alla proprietà di Markov.

Page 25: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

1.4. PROPRIETÀ DI MARKOV 25

Definizione 9 Su uno spazio misurabile (E, E), diciamo che una funzione p (s, t, x, A),definita per t > s ≥ 0, x ∈ E, A ∈ E, è una funzione di transizione markoviana se:i) per ogni (s, t, A), x 7−→ p (s, t, x, A) è E-misurabileii) per ogni (s, t, x), A 7−→ p (s, t, x, A) è una misura di probabilità su (E, E)iii) vale l’equazione di Chapman-Kolmogorov

p (s, t, x, A) =

∫E

p (u, t, y, A) p (s, u, x, dy)

per ogni t > u > s ≥ 0, x ∈ E, A ∈ E.

Definizione 10 Data una funzione di transizione markoviana p ed una misura di prob-abilità µ0 su (E, E), diciamo che un processo stocastico X = (Xt)t≥0, rispetto ad unafiltrazione (Ft)t≥0 (su uno spazio probabilizzato (Ω,F , P )) è un processo di Markovassociato a p con legge iniziale µ0 se:i) X0 ha legge µ0

ii) per ogni t ≥ 0, h > 0, A ∈ E vale

P (Xt+h ∈ A|Ft) = p (t, t+ h,Xt, A) . (1.6)

Si noti che se un processo soddisfa le condizioni di quest’ultima definizione, alloraè di Markov, per la Proposizione 12. La definizione quindi arricchisce la proprietà diMarkov.Come sopra, la proprietà (1.6) è equivalente a

E [ϕ (Xt+h) |Ft] =

∫ϕ (y) p (t, t+ h,Xt, dy) (1.7)

per ogni ϕ misurabile limitata.L’introduzione della funzione p (s, t, x, A) è concettualmente (ed anche tecnica-

mente) un effettivo arricchimento. Essa corrisponde all’idea intuitiva che, ad ogniistante s ≥ 0, a causa della proprietà di Markov il processo “riparta”dalla posizionex occupata in quell’istante, scordandosi del passato. La posizione x al tempo s iden-tifica la probabilità p (s, t, x, A) di occupare una posizione in A in un generico istantesuccessivo t.Nascono due domande naturali:

1. dato un processo di Markov, esiste una funzione di transizione markoviana p adesso associata?

2. Data una funzione di transizione markoviana p ed una generica probabilità inizialeµ0, esiste un processo di Markov X ad esse associato?

La prima domanda è delicata per cui ci accontenteremo di verificare l’esistenza invari esempi o di supporla in certi teoremi.

Page 26: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

26 CAPITOLO 1. INTRODUZIONE AI PROCESSI STOCASTICI

Osservazione 7 Mostriamo alcuni passi nella direzione di una costruzione di p par-tendo da un processo di Markov. Se il processo X è definito su uno spazio (Ω,F , P )in cui Ω è metrico completo e separabile, F = B (Ω), presa la sotto-σ-algebra G = F s,esiste una versione regolare della probabilità condizionale di P rispetto a G, che in-dichiamo con Ps (A′, ω), A′ ∈ F , ω ∈ Ω. Essa soddisfa, oltre alla misurabilità rispettoa Fs ed all’essere una misura di probabilità rispetto ad A′,

Ps (A′, ·) = P (A′|Fs) .

Preso A′ della forma A′ = Xt ∈ A con A ∈ E, scriviamo

ρ (s, t, ω, A) := Ps (Xt ∈ A , ω) .

Questo soddisfa

ρ (s, t, ·, A) = P (Xt ∈ A|Fs) = P (Xt ∈ A|Xs)

dove abbiamo usato l’ipotesi di markovianità. La funzione A 7−→ ρ (s, t, ω, A) è unamisura di probabilità. Il problema è passare da ρ (s, t, ω, A), ω ∈ Ω, a p (s, t, x, A),x ∈ E.

La seconda domanda ha risposta affermativa in spazi degli stati σ-compatti. Premet-tiamo una proposizione che illustra come la conoscenza della funzione di transizionemarkoviana e della legge iniziale sono suffi cienti a identificare la legge di un processo,se si suppone che esso sia di Markov.

Proposizione 15 Se X è un processo di Markov con funzione di transizione marko-viana p, allora, per ogni τ = (t1, ..., tn) ∈ S, A1, ..., An ∈ E, vale

P (Xtn ∈ A3, · · ·, Xt1 ∈ A1)∫A1

µt1 (dy1)

∫A2

p (t1, t2, y1, dy2) · · ·∫An

p (tn−1, tn, yn−1, dyn)

dove µt1 è la legge di Xt1.

Proof. Il caso n = 3 chiarisce completamente la dimostrazione, che va poi svolta perinduzione. Chi avesse visto la dimostrazione perle catene di Markov ne riconoscerebbela struttura, basata sulla disintegrazione rispetto all’ultimo istante di tempo. Vale

P (Xt3 ∈ A3, Xt2 ∈ A2, Xt1 ∈ A1) = E [1A3 (Xt3) 1A2 (Xt2) 1A1 (Xt1)]

= E [E [1A3 (Xt3) 1A2 (Xt2) 1A1 (Xt1) |Ft2 ]]= E [1A2 (Xt2) 1A1 (Xt1)E [1A3 (Xt3) |Ft2 ]]= E [1A2 (Xt2) 1A1 (Xt1) p (t2, t3, Xt2 , A3)] .

Page 27: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

1.4. PROPRIETÀ DI MARKOV 27

Analogamente, usando (1.6),

E [1A2 (Xt2) 1A1 (Xt1) p (t2, t3, Xt2 , A3)]

= E [E [1A2 (Xt2) 1A1 (Xt1) p (t2, t3, Xt2 , A3) |Ft1 ]]= E [1A1 (Xt1)E [1A2 (Xt2) p (t2, t3, Xt2 , A3) |Ft1 ]]

= E

[1A1 (Xt1)

∫1A2 (y) p (t2, t3, y, A3) p (t1, t2, Xt1 , dy)

]E

[1A1 (Xt1)

∫A2

p (t2, t3, y, A3) p (t1, t2, Xt1 , dy)

].

Infine, quest’ultima espressione si può riscrivere nella forma∫1A1 (y1)

∫A2

p (t2, t3, y2, A3) p (t1, t2, y1, dy2)µt1 (dy1)

=

∫A1

µt1 (dy1)

∫A2

p (t1, t2, y1, dy2)

∫A3

p (t2, t3, y2, dy3) .

Proposizione 16 Supponiamo E metrico σ-compatto. Date una funzione di tran-sizione markoviana p ed una generica probabilità iniziale µ0, esiste un processo diMarkov X ad esse associato, unico in legge.

Proof. Diamo solo la traccia. Cerchiamo di usare il Teorema di Kolmogorov dicostruzione dei processi. Per far questo, dobbiamo costruire quelle che saranno ledistribuzioni di dimensione finita del processo. Sulla base della proposizione precedente,per ogni τ = (t1, ..., tn) ∈ S indichiamo con µτ la misura di probabilità su (En, En) taleche

µτ (A1 × ...× An) =

∫A1

µt1 (dy1)

∫A2

p (t1, t2, y1, dy2) · · ·∫An

p (tn−1, tn, yn−1, dyn) .

La consistenza si verifica immediatamente usando l’equazione di Chapman-Kolmogorov(si deve prendere Ai = E). Le altre proprietà richiedono un po’di lavoro che nonriportiamo.

Page 28: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

28 CAPITOLO 1. INTRODUZIONE AI PROCESSI STOCASTICI

Page 29: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

Capitolo 2

Il moto browniano

2.1 Definizione, esistenza e proprietà di Markov

Definizione 11 Un moto browniano grossolano è un processo stocastico B = (Bt)t≥0

tale chei) P (Bt = 0) = 1ii) per ogni t > s ≥ 0, Bt −Bs è una gaussiana N (0, t− s)iii) per ogni n ∈ N ed ogni sequenza tn > ... > t1 ≥ 0, le v.a. Btn − Btn−1,

Btn−1 −Btn−2, ... , Bt2 −Bt1 sono indipendenti.Se aggiungiamo che sia continuo, lo chiameremo moto browniano perfezionato o

semplicemente moto browniano. La sua legge su (C[0,∞),B (C[0,∞))) sarà dettamisura di Wiener.

A causa della proprietà (i) si suole dire che è un moto browniano standard. Al-trimenti si può considerare il caso in cui il processo esca da un altro punto iniziale,diverso dallo zero.A volte è utile considerare il concetto di moto browniano rispetto ad una filtrazione

data.

Definizione 12 Un moto browniano, rispetto ad una filtrazione (Ft)t≥0, è un processostocastico B = (Bt)t≥0 tale chei) P (Bt = 0) = 1ii) è adattatoiii) per ogni t > s ≥ 0, Bt −Bs è una gaussiana N (0, t− s) indipendente da Fs.Se non imponiamo che sia continuo, lo diremo moto browniano grossolano, altri-

menti lo chiameremo moto browniano perfezionato o semplicemente moto browniano.

Nel caso della definizione 11, sia (F00t )t≥0 la filtrazione naturale: F00

t è la più piccolaσ-algebra che rende misurabili tutte le v.a. Bs, con s ∈ [0, T ].

29

Page 30: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

30 CAPITOLO 2. IL MOTO BROWNIANO

Proposizione 17 Un processo soddisfa la definizione 12 rispetto alla filtrazione natu-rale (F00

t )t≥0, se e solo se soddisfa la definizione 11.

Proof. Supponiamo che valga la definizione 12 rispetto alla filtrazione naturale (F00t )t≥0.

Presi tn > ... > t1 ≥ 0, osserviamo che gli incrementi Btn−1 −Btn−2 , ... , Bt2 −Bt1 sonomisurabili rispetto a F00

tn−1 , quindi Btn −Btn−1 è indipendente da essi:

P(Btn −Btn−1 ∈ An,

(Btn−1 −Btn−2 , ..., Bt2 −Bt1

)∈ A′

)= P

(Btn −Btn−1 ∈ An

)P((Btn−1 −Btn−2 , ..., Bt2 −Bt1

)∈ A′

)per ogni An ∈ B (R) ed A′ ∈ B (Rn−1). Questo vale in particolare per insiemi del tipoA′ = An−1 × · · · × A2 con Ai ∈ B (R). Basta poi iterare il ragionamento per ottenere

P(Btn −Btn−1 ∈ An, ..., Bt2 −Bt1 ∈ A2

)=

n∏i=2

P(Bti −Bti−1 ∈ Ai

)che è la condizione (iii) della definizione 11. Le altre proprietà sono ovvie.Viceversa, supponiamo che valga la definizione 11. Presi t > s ≥ 0, l’unico problema

è dimostrare che Bt−Bs è indipendente da F00s . Ricordando il criterio dell’esercizio 8, è

suffi ciente dimostrare l’indipendenza tra σ (Bt −Bs) e gli elementi di una base di F00s .

Prendiamo la famiglia A ⊂ F00s degli eventi della forma Bu1 ∈ A1, ..., Bun ∈ An al

variare di u1 ≤ ... ≤ un ∈ [0, s], A1, ..., An ∈ B (R). Questa è una base, in quanto generaF00s , è chiusa per intersezione finita, contiene Ω. Basta allora dimostrare l’indipenden-za tra σ (Bt −Bs) e gli elementi di A. Fissati u1 ≤ ... ≤ un ∈ [0, s], basta quindidimostrare l’indipendenza tra σ (Bt −Bs) e gli elementi di σ (Bu1 , Bu2 , ..., Bun). Ledue σ-algebre σ (Bu1 , Bu2 , ..., Bun) e σ

(Bu1 , Bu2 −Bu1 , ..., Bun −Bun−1

)coincidono (i

vettori (Bu1 , Bu2 , ..., Bun) e(Bu1 , Bu2 −Bu1 , ..., Bun −Bun−1

)sono legati da una trasfor-

mazione biunivoca). Quindi basta mostrare l’indipendenza tra σ (Bt −Bs) ed una basedi σ

(Bu1 , Bu2 −Bu1 , ..., Bun −Bun−1

), ad esempio quella formata dagli eventi della for-

maBu1 ∈ A1, Bu2 −Bu1 ∈ A2, ..., Bun −Bun−1 ∈ An

al variare di A1, ..., An ∈ B (R).

A questo punto la verifica è ovvia, basandoci sull’indipendenza delle v.a. Bt − Bs,Bs −Bun , Bun −Bun−1 , ... , Bu2 −Bu1 , Bu1 . La dimostrazione è completa.Esistono numerose formulazioni equivalenti della definizione di moto browniano (si

veda anche la sezione 2.1.1). Eccone una utile per la costruzione successiva.

Proposizione 18 Se B = (Bt)t≥0 è un moto browniano standard grossolano, presaτ = (t1, ..., tn) ∈ S, la distribuzione marginale µτ su (Rn,B (R)n) è una gaussiana dimedia nulla e matrice di covarianza Q(τ) di componenti

Q(τ)ij = ti ∧ tj.

Quindi B è un processo gaussiano, con funzione valor medio m (t) = 0 e funzione dicovarianza

C (t, s) = t ∧ s.

Page 31: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

2.1. DEFINIZIONE, ESISTENZA E PROPRIETÀ DI MARKOV 31

Viceversa, un processo gaussiano con tali funzioni media e covarianza, è un motobrowniano grossolano.

Proof. Il vettore(Btn −Btn−1 , Btn−1 −Btn−2 , ..., Bt2 −Bt1 , Bt1

)è gaussiano (si noti

che possiamo scrivere Bt1 come Bt1 − B0). Infatti, ha componenti indipendenti egaussiane (in generale non sarebbe vero se le componenti non fossero indipendenti),quindi la densità congiunta si può scrivere come prodotto delle marginali, che essendogaussiane conducono con facili calcoli ad una densità congiunta gaussiana.Il vettore (Bt1 , ..., Btn) si ottiene dal precedente con una trasformazione lineare,

quindi è anch’esso gaussiano. La sua media è nulla (per verifica diretta). Calcoliamo lasua matrice di covarianza direttamente, piuttosto che con la regola di trasformazionecitata a suo tempo. Se j > i, quindi tj > ti, vale

Q(µ)ij = Cov

(Bti , Btj

)= Cov

(Bti , Btj −Bti

)+ Cov (Bti , Bti)

= Cov (Bti , Bti) = V ar [Bti ] = ti

per linearità della covarianza nei suoi argomenti, indipendenza tra Btj − Bti e Bti ed

altri fatti ovvi. Quindi Q(µ)ij = ti ∧ tj.

Viceversa, supponiamo che B sia un processo gaussiano con funzioni m (t) = 0 eC (t, s) = t∧s. Al tempo t = 0 abbiamo E [B0] = 0, V ar [B0] = C (0, 0) = 0, quindi B0

è una v.a. che vale 0 quasi certamente (ad esempio si deduce dalla disuguaglianza diChebyshev). Quindi la (i) è verificata. Il vettore (Bt1 , ..., Btn) è gaussiano. Usando latrasformazione inversa di quella usata nella prima parte della dimostrazione, si deduceche il vettore

(Btn −Btn−1 , Btn−1 −Btn−2 , ..., Bt2 −Bt1 , Bt1

)è gaussiano. La sua media

è nulla per verifica diretta. Gli elementi della sua matrice di covarianza valgono

Cov(Btn−i −Btn−i−1 , Btn−j −Btn−j−1

)= Cov

(Btn−i , Btn−j

)− Cov

(Btn−i , Btn−j−1

)− Cov

(Btn−i−1 , Btn−j

)+ Cov

(Btn−i−1 , Btn−j−1

)che, per i > j diventano (tn−i−1 < tn−i ≤ tn−j−1 < tn−j), usando la formulaCov (Bt, Bs) =t ∧ s,

= tn−i − tn−i − tn−i−1 + tn−i−1 = 0

mentre per i = j diventano (tn−i−1 = tn−j−1 < tn−i = tn−j)

= tn−i − tn−i−1 − tn−i−1 + tn−i−1 = tn−i − tn−i−1.

Quindi la covarianza è diagonale, cioè le componenti del vettore aleatorio sono scorre-late e questo implica che sono indipendenti, perché si tratta di un vettore gaussiano.Le componenti sono gli incrementi del moto browniano, che quindi sono indipendenti(proprietà (iii)), oltre che gaussiani. Vale infine la proprietà (ii): abbiamo già stabilito

Page 32: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

32 CAPITOLO 2. IL MOTO BROWNIANO

che il generico incremento è gaussiano e centrato; vale poi, con gli stessi calcoli appenaeseguiti, per t > s ≥ 0,

V ar [Bt −Bs] = Cov (Bt, Bt)− Cov (Bt, Bs)− Cov (Bs, Bt) + Cov (Bs, Bs)

= t− s− s+ s = t− s.

La dimostrazione è completa.Esistono numerose costruzioni di un moto browniano grossolano. Fatta la fatica

della proposizione precedente, per noi la strada più breve è basarsi sul teorema dicostruzione di Kolmogorov, nella sua applicazione generale ai processi gaussiani.

Proposizione 19 Un moto browniano grossolano esiste. La legge su(R[0,∞),B (R)[0,∞)

)è univocamente determinata.

Proof. La legge su(R[0,∞),B (R)[0,∞)

)è univocamente determinata dalle marginali,

che sono univocamente note in base al lemma precedente. Veniamo alla costruzione.Per l’esistenza, grazie alla Proposizione 18, basta che mostriamo l’esistenza di un

processo gaussiano conm (t) = 0 e C (t, s) = t∧s. Possiamo usare il criterio di esistenzadi processi gaussiani con funzioni m (t) e C (t, s) date. Per far questo, basta verificareche C (t, s) = t ∧ s sia una funzione semidefinita positiva, nel senso che valga

n∑i,j=1

(ti ∧ tj) ξiξj ≥ 0 (2.1)

per ogni (t1, ..., tn) ∈ [0,∞)n, (ξ1, ..., ξn) ∈ Rn. Il resto della dimostrazione si occupadi questa verifica.Ispirandoci a quanto già scoperto sopra (Proposizione 18), possiamo mostrare che

esiste un vettore aleatorio con matrice di covarianza avente componenti ti∧ tj. Siccomeuna matrice di covarianza è semidefinita positiva, la proprietà (2.1) sarà dimostrata.Prendiamo delle v.a. X1, ..., Xn indipendenti, centrate e di varianze t1, t2 − t1, ..., tn −tn−1. Definiamo delle v.a. Y1, ..., Yn tramite le relazioni

X1 = Y1

X2 = Y2 − Y1

...

Xn = Yn − Yn−1

(relazioni chiaramente invertibili). Per ogni i = 2, ..., n, vale

Yi = Yi − Yi−1 + ...+ Y2 − Y1 + Y1 = Xi + ...+X2 +X1

quindi

V ar [Yi] = V ar [Xi] + ...+ V ar [X1] = ti − ti−1 + ...+ t2 − t1 + t1 = ti

Page 33: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

2.1. DEFINIZIONE, ESISTENZA E PROPRIETÀ DI MARKOV 33

ovveroCov (Yi, Yi) = ti = ti ∧ ti.

Inoltre, se j > i, per ragioni analoghe (essendo cioè Yi = Xi + ... + X2 + X1), le v.a.Xj, Xj−1..., Xi+1 sono indipendenti da Yi, quindi

Cov (Yj, Yi) = Cov (Yj − Yj−1 + ...+ Yi+1 − Yi + Yi, Yi)

= Cov (Xj + ...+Xi+1 + Yi, Yi)

= Cov (Yi, Yi) = ti = ti ∧ tj.

Quindi la matrice di covarianza di (Y1, ..., Yn) ha le componenti desiderate. Questoconclude la dimostrazione.Volendo si possono perseguire dimostrazioni più algebriche, o ragionando sui minori

della matrice, oppure verificando la condizione (2.1) per n basso e trovando poi unastruttura iterativa. Per n = 2 vale

2∑i,j=1

(ti ∧ tj) ξiξj = t1 (ξ1 + ξ2)2 + (t2 − t1) ξ22

mentre per n = 3 vale

3∑i,j=1

(ti ∧ tj) ξiξj = t1 (ξ1 + ξ2 + ξ3)2

+ (t2 − t1) ξ22 + 2 (t2 − t1) ξ2ξ3 + (t3 − t1) ξ2

3

dove la somma degli ultimi tre termini è simile al punto di partenza del caso n = 2. Civuole però molta pazienza a completare il conto in questo modo. La dimostrazione ècompleta.Esaminiamo ora l’esistenza di un moto browniano continuo. Premettiamo il seguente

teorema che non dimostriamo in quanto ha fatto parte di un corso precedente. E’dettoteorema di regolarità di Kolmogorov.

Teorema 4 Se un processo stocastico X = (Xt)t∈D definito in un aperto D ⊂ Rnsoddisfa

E [|Xt −Xs|p] ≤ C |t− s|n+α

per certe costanti p, C, α > 0, allora esiste una modificazione X ′t di Xt tale che letraiettorie di X ′t sono γ-hölderiane per ogni γ <

αp.

Proposizione 20 Esiste un moto browniano continuo e le sue traiettorie sono α-hölderiane, per ogni α ∈ (0, 1/2). Precisamente, per ogni T > 0 ed ogni α ∈ (0, 1/2)esiste una funzione CT,α : Ω→ (0,∞) tale che

|Bt (ω)−Bs (ω)| ≤ CT,α (ω) |t− s|α per ogni t, s ∈ [0, T ] ed ogni ω ∈ Ω.

Page 34: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

34 CAPITOLO 2. IL MOTO BROWNIANO

Proof. Sia B un moto browniano grossolano. La v.a. Bt−Bs√t−s (per t > s) è una normale

standard. Fissiamo n ∈ N, diciamo n > 2. Siccome∫ +∞−∞ |x|

n e−x2/2dx <∞, esiste una

costante Cn > 0 tale che

E

[∣∣∣∣Bt −Bs√t− s

∣∣∣∣n] ≤ Cn

e quindiE [|Bt −Bs|n] ≤ Cn (t− s)n/2 = Cn (t− s)1+n−2

2 .

La costante Cn non dipende da t > s ≥ 0. In base al teorema di regolarità di Kol-mogorov, esiste una modificazione B(n)

t di Bt tale che le traiettorie di B(n)t sono γ-

hölderiane per ogni γ <n−22

n= n−2

2n. Innanzi tutto, preso ad es. n = 3, questo dimostra

l’esistenza di un moto browniano continuo: infatti B(3)t è un processo continuo che

soddisfa le proprietà (i) ed (ii) della definizione 11; anche la (iii) è facile, usando l’e-sercizio 9. Quindi B(3)

t è un moto browniano continuo. Prendiamo ora B(n)t , con n > 3

qualsiasi. E’una modificazione continua di Bt, quindi anche di B(3)t . Ma due processi

X ed Y continui che sono modificazione uno dell’altro sono indistinguibili: numeratii tempi positivi razionali con la successione tn, posto Nn = Xtn 6= Ytn, l’insiemeN = ∪nNn ha misura nulla, per ω ∈ N c vale Xt (ω) = Yt (ω) per ogni t ∈ Q∩ [0,∞), equindi per ogni t ≥ 0 essendo processi continui.Abbiamo così dimostrato che B(n)

t è indistinguibile da B(3)t . Sia Nn l’insieme dove

differiscono, di misura nulla. Sia N = ∪nNn, di misura nulla. Per ω ∈ N c, B(3)t ha la

regolarità delle traiettorie di qualsiasi B(n)t , quindi γ-hölderiane per ogni γ < n−2

2n, con

n qualsiasi, quindi γ-hölderiane per ogni γ < 12. Abbiamo trovato un moto browniano

che quasi certamente ha traiettorie γ-hölderiane per ogni γ < 12. Sull’insieme di misura

nulla in cui questo non accade possiamo porlo identicamente uguale a zero. Il nuovoprocesso soddisfa le condizioni della proposizione.

Proposizione 21 Il moto browniano (anche grossolano) è un processo di Markov.

Proof. Basta applicare una proposizione vista nel paragrafo dei processi di Markov cheasserisce che ogni processo a incrementi indipendenti è di Markov. Il moto brownianoha infatti incrementi indipendenti.

Esercizio 8 Sia (Ω,F , P ) uno spazio probabilizzato. Ricordiamo che un insieme digeneratori di F è una famiglia H ⊂ P (Ω) tale che F =σ (H). Invece una base di F èun insieme di generatori chiuso per intersezione finita e contenente Ω (o almeno taleche l’unione numerabile di opportuni elementi di H sia Ω). Ricordiamo ad esempioche due misure coincidenti su una base coincidono su tutta la σ-algebra. Ricordiamopoi che due sotto σ-algebre G, G ′ di F si dicono indipendenti se vale P (A ∩B) =P (A)P (B) per ogni A ∈ G, B ∈ G ′. Sia H una base di G ′. Mostrare che, se valeP (A ∩B) = P (A)P (B) per ogni A ∈ G, B ∈ H, allora G e G ′, sono indipendenti.

Page 35: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

2.1. DEFINIZIONE, ESISTENZA E PROPRIETÀ DI MARKOV 35

[Verificare che l’insieme di tutti gli elementi B ∈ F tali che P (A ∩B) = P (A)P (B)per ogni A ∈ G, è una σ-algebra.]

Esercizio 9 Verificare che se X1, ..., Xn sono v.a. indipendenti, e X ′1, ..., X′n sono P -

equivalenti alle X1, ..., Xn rispettivamente, allora le v.a. X ′1, ..., X′n sono indipendenti.

[Preso A1 ∈ B (R), esistono due insiemi N1, N′1 di misura nulla tali che X ′1 ∈ A1 ∪

N ′1 = X1 ∈ A1 ∪N1.]

2.1.1 Una motivazione modellistica

Brown osservò che particelle molto leggere ma visibili (tipo polline) messe in sospen-sione in un liquido si muovono incessantemente e molto irregolarmente. Chiamiamoleparticelle browniane. La spiegazione del loro moto, così erratico, è che le particellebrowniane risentono degli innumerevoli urti molecolari delle molecole del fluido e sispostano in conseguenza di essi.Alcuni studiosi (Ornstein, Uhlenbeck, Chandrasekar ecc.) hanno dato una de-

scrizione tramite equazioni di Newton, molto realistica. Adottiamo invece una de-scrizione più fenomenologica, basata più su argomenti ragionevoli e semplici piuttostoche su un dettagliato bilancio di forze.Sia Xt la posizione al tempo t della particella browniana. Per semplicità supponi-

amola uni-dimensionale (oppure descriviamo una delle due componenti). La traiettoriat 7−→ Xt è continua. Gli spostamenti Xtn−Xtn−1 , Xtn−1−Xtn−2 , ... , Xt2−Xt1 relativia intervalli temporali disgiunti si possono considerare ragionevolmente indipendenti,visto che gli innumerevoli urti in ciascun intervallo [ti−1, ti] sono relativi a molecole di-verse. Lo spostamento Xt+h −Xt ha ragionevolmente una legge statistica che dipendesolo da h e non da t. Possiamo inoltre supporre che i momenti di Xt+h − Xt sianofiniti, ad esempio fino all’ordine 3 (questa è una condizione puramente tecnica), perh piccolo, senza violare così l’intuizione fisica (non ci aspettiamo spostamenti troppograndi, mediamente); e che abbia media nulla. Infine, poniamo la particella borwniananell’origine, al tempo t = 0.Tra queste, l’unica ipotesi che è un’idealizzazione della realtà è quella di indipen-

denza, ma sembra molto vicina al reale. Si noti che non abbiamo ipotizzato nulla diquantitativo circa la legge (es. gaussiana) e la dipendenza della varianza da h.Supponiamo quindi di avere un processo stocastico Xt tale che:i) P (Xt = 0) = 1, Xt ha traiettorie continueii) Xtn − Xtn−1 , Xtn−1 − Xtn−2 , ... , Xt2 − Xt1 sono v.a. indipendenti, per ogni

tn ≥ tn−1 ≥ ... ≥ t1 ≥ 0

iii) la legge di Xt+h −Xt dipende solo da h, ha media zero, ed esiste una costanteC > 0 tale che E

[|Xh|3

]≤ C per h suffi cientemente piccolo.

Un simile processo è unico, è cioè univocamente identificato da questi requisiti? Sipuò precisare la distribuzione statistica degli incrementi, o si può calcolare quella della

Page 36: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

36 CAPITOLO 2. IL MOTO BROWNIANO

posizione Xt? La risposta è affermativa. Omettiamo la dimostrazione completa delteorema che richiede alcuni argomenti un po’tecnici sulle funzioni caratteristiche.

Teorema 5 La varianza di Xt è finita per ogni t. Supponendo (per fissare un’unità dimisura) che V ar [X1] = 1, X è una moto browniano.

Proof. Fissato t > 0, preso n ∈ N e detto h = tn, vale

Xt =(Xt −Xn−1

nt

)+ ...+

(X 2

nt −X 1

nt

)+(X 1

nt −X0

).

Le v.a. tra parentesi sono indipendenti ed hanno varianza finita (almeno se n è grande)per cui Xt ha varianza finita. Fissiamo la scala ponendo V ar [X1] = 1.Mostriamo che V ar [Xt] = t per ogni t razionale positivo. Se t = n

mcon n,m

interi positivi, vale Xt =(Xn/m −X(n−1)/m

)+ ...+

(X1/m −X0

), quindi V ar

[Xn/m

]=

nV ar[X1/m

]. La relazione vale anche per n = m, quindi 1 = mV ar

[X1/m

]. Vale

quindiV ar

[X n

m

]=

n

m.

Per l’ipotesi sul momento terzo e la continuità delle traiettorie, possiamo applicare ilcriterio di passaggio al limite in valore atteso di Vitali e dedurre V ar [Xt] = t perogni t ≥ 0. Questa dimostrazione si può ripetere per il generico incremento Xt − Xs

provando che V ar [Xt −Xs] = t− s per ogni t > s ≥ 0.Manca solo la gaussianità di Xt − Xs, per aver verificato tutte le condizioni di

un moto browniano. La gaussianità si dimostra nello stesso modo del teorema limitecentrale, ma facendo entrare in gioco la continuità delle traiettorie. Questa parte èpiuttosto tecnica e la omettiamo.

2.2 Regolarità del moto browniano

2.2.1 Diffi coltà ad usare il MB come integratore

Nei capitoli successivi saremo interessati ad integrali del tipo∫ t

0

XsdBs

dove B è un moto browniano. Come potrebbe essere definito questo integrale? Elenchi-amo alcune possibilità (nessuna funzionante), in ordine di diffi coltà.1. Se le traiettorie del MB fossero funzioni differenziabili, e la derivata dBs(ω)

dsavesse

un minimo di integrabilità, potremmo definire l’integrale precedente in modo ovvio,come

∫ t0Xs (ω) dBs(ω)

dsds. Invece il MB ha traiettorie che, q.c., non sono differenziabili

in alcun punto. Questa proprietà è così speciale che la dimostreremo in dettaglio nelseguito del capitolo.

Page 37: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

2.2. REGOLARITÀ DEL MOTO BROWNIANO 37

2. Un’apparente ancora di salvezza sembra venire da un ragionamento semplicissi-mo. Se X è suffi cientemente regolare, possiamo definire∫ t

0

Xs (ω) dBs (ω) = [Xs (ω)Bs (ω)]s=ts=0 −∫ t

0

Bs (ω) dXs (ω)

cioè scaricare il problema della regolarità su X. Basta ad esempio che X abbia traiet-torie a variazione limitata. Ma questo, pur vero, è troppo restrittivo per i nostri scopi.Infatti, il caso per noi di maggior interesse sarà quello di integrali del tipo∫ t

0

f (Xs) dBs

dove f è regolare ed X risolve un’equazione differenziale contenente B, e fatta in modoche la (poca) regolarità delle traiettorie di X sia simile a quella di B (si immagini adesempio un’equazione della forma Xt = Bt + At, dove A è un processo con traiettoriemolto regolari). Allora X non ha traiettorie a variazione limitata, come non le ha B,e quindi il trucchetto di integrare per parti non si può applicare.3. Se le traiettorie di B fossero funzioni a variazione limitata (ricorderemo tra

poco cosa questo significhi), allora potremmo definire∫ t

0Xs (ω) dBs (ω) per q.o. ω,

per processi X opportuni, come integrale di Lebesgue-Stieltjes. Ma questo non è vero,le traiettorie di B non sono a variazione limitata, come dimostreremo poco sotto nelcapitolo. La derivata delle traiettorie browniane dBs (ω) /ds non è una misura, è solouna distribuzione di classe meno regolare e non utile per effettuare integrazioni.4. Esiste poi un concetto di integrale secondo Young che si applicherebbe se B· (ω)

fosse di classe Cα ([a, b]) con α > 12(funzioni hölderiane di ordine α), cosa non vera,

come vedremo sotto. E’una teoria utile ad esempio per integrare rispetto a variantidel MB come il moto browniano frazionario con indice di Hurst H > 1

2.

5. In conclusione, serve un concetto nuovo di integrale, detto integrale secondo Itô,di cui ci occuperemo in un capitolo successivo. Va detto che in anni recenti è statasviluppata la teoria dell’integrazione dei rough paths, che, entro certi limiti e con molteprecisazioni piuttosto complesse, permette di integrare rispetto a traiettorie browniane,senza bisogno della teoria di Itô. Sia per la complessità, sia per le limitazioni, non harimpiazzato la teoria di Itô, per gli usuali scopi di questa teoria. E’invece risultatautile per scopi particolari ed è attualmente in grande evoluzione.

2.2.2 Commenti sulle funzioni a variazione limitata

Consideriamo funzioni f : [a, b] → R. Usiamo le seguenti notazioni: indichiamouna generica partizione di [a, b] con π = a ≤ t1 < ... < tnπ ≤ b e scriviamo |π| =maxi=1,...,nπ−1 |ti+1 − ti|.

Page 38: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

38 CAPITOLO 2. IL MOTO BROWNIANO

Una funzione f : [a, b]→ R si dice a variazione limitata, e scriviamo f ∈ BV [a, b],se

supπ

nπ−1∑i=1

|f (ti+1)− f (ti)| <∞.

Se f ∈ BV [a, b] e g ∈ C ([a, b]) allora, presa una successione πkk∈N di partizioni di[a, b], con limk→∞ |πk| = 0, della forma πk =

a ≤ tk1 < ... < tknπk

≤ b, esiste il limite

lim|π|→0

nπk−1∑i=1

g (ξi)(f(tki+1

)− f

(tki))

per ogni scelta di ξi ∈[tki , t

ki+1

], indicato con

∫ bagdf e chiamato integrale di Riemann-

Stieltjes. Tale integrale si estende poi ad altre funzioni, in particolare nella direzionedell’integrazione di Lebesgue, ma sostanzialmente serve sempre l’ipotesi che f siaBV [a, b].Useremo poco più tardi la seguente proposizione. A parole, potremmo dire che

se la variazione quadratica è non nulla, allora la funzione non è a variazione limitata.Indichiamo inoltre con Cα ([a, b]) lo spazio delle funzioni hölderiane di ordine α ∈ (0, 1).

Proposizione 22 Sia f una funzione continua e sia πkk∈N una successione di par-tizioni di [a, b], con limk→∞ |πk| = 0, della forma πk =

a ≤ tk1 < ... < tknπk

≤ b.

Se

limk→∞

nπk−1∑i=1

∣∣f (tki+1

)− f

(tki)∣∣2 > 0

allora f non è di classe BV [a, b]. Non è nemmeno di classe Cα ([a, b]) per qualcheα ∈

(12, 1). In altre parole, se f è una funzione continua BV, oppure Cα ([a, b]) per

qualche α ∈(

12, 1), allora limk→∞

∑nπk−1

i=1

∣∣f (tki+1

)− f

(tki)∣∣2 = 0.

Proof. Osserviamo che vale

nπk−1∑i=1

∣∣f (tki+1

)− f

(tki)∣∣2 ≤ nπk−1∑

i=1

∣∣f (tki+1

)− f

(tki)∣∣ ( max

i=1,...,nπk−1

∣∣f (tki+1

)− f

(tki)∣∣)

≤ ω (f, πk) · supπ

nπ−1∑i=1

|f (ti+1)− f (ti)|

dove ω (f, πk), oscillazione di f su πk, è definita da

ω (f, πk) = maxi=1,...,nπk−1

∣∣f (tki+1

)− f

(tki)∣∣ .

Page 39: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

2.2. REGOLARITÀ DEL MOTO BROWNIANO 39

Vale limk→∞ ω (f, πk) = 0, essendo f uniformemente continua su [a, b]. Se per assurdofosse f ∈ BV [a, b], allora dedurremmo limk→∞

∑nπk−1

i=1

∣∣f (tki+1

)− f

(tki)∣∣2 = 0, in

contraddizione con l’ipotesi. Quindi f /∈ BV [a, b].Se per assurdo fosse f ∈ Cα ([a, b]) per un qualche α ∈

(12, 1), cioè se relativamente

ad una costante C > 0 valesse

|f (t)− f (s)| ≤ C |t− s|α , t, s ∈ [a, b]

alloranπk−1∑i=1

∣∣f (tki+1

)− f

(tki)∣∣2 ≤ C

nπk−1∑i=1

∣∣tki+1 − tki∣∣2α = C

nπk−1∑i=1

∣∣tki+1 − tki∣∣ ∣∣tki+1 − tki

∣∣2α−1

≤ C

nπk−1∑i=1

∣∣tki+1 − tki∣∣ |πk|2α−1 = C (b− a) |πk|2α−1

da cui dedurremmo dedurremmo limk→∞∑nπk−1

i=1

∣∣f (tki+1

)− f

(tki)∣∣2 = 0, in contrad-

dizione con l’ipotesi. La dimostrazione è completa.

2.2.3 Variazione quadratica del MB e variazione non limitata

Teorema 6 Sia B un moto browniano (continuo) e sia T > 0. Sia πkk∈N una succes-sione di partizioni di [0, T ], con limk→∞ |πk| = 0, della forma πk =

0 = tk1 < ... < tknπk

= T.

Allora

limk→∞

E

nπk−1∑i=1

∣∣∣Btki+1−Btki

∣∣∣2 − T2 = 0

e∑nπk−1

i=1

∣∣∣Btki+1−Btki

∣∣∣2 converge a T in probabilità. Ne discende che, q.c., le traiettoriebrowniane non sono di classe BV [0, T ] e non appartengono ad alcun Cα ([a, b]) perα ∈

(12, 1).

Proof. La v.a.Btki+1−B

tki√

tki+1−tkiè N (0, 1), quindi la v.a. Yk,i =

∣∣∣∣Btki+1−B

tki

∣∣∣∣2tki+1−tki

ha legge in-

dipendente da k ed i. Inoltre, fissato k, le v.a. Yk,1, ..., Yk,nπk−1 sono indipendenti.Pertanto

E

nπk−1∑i=1

∣∣∣Btki+1−Btki

∣∣∣2 − T2 = E

nπk−1∑i=1

Yk,i(tki+1 − tki

)− T

2= E

nπk−1∑i=1

(Yk,i − 1)(tki+1 − tki

)2

Page 40: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

40 CAPITOLO 2. IL MOTO BROWNIANO

= E

nπk−1∑i,j=1

(Yk,i − 1) (Yk,j − 1)(tki+1 − tki

) (tkj+1 − tkj

)=

nπk−1∑i,j=1

(tki+1 − tki

) (tkj+1 − tkj

)E [(Yk,i − 1) (Yk,j − 1)] .

I termini con i 6= j sono nulli: per l’indipendenza

E [(Yk,i − 1) (Yk,j − 1)] = E [Yk,i − 1]E [Yk,j − 1]

e ciascun fattore è nullo:

E [Yk,i − 1] = E [Yk,i]− 1 =1

tki+1 − tkiE

[∣∣∣Btki+1−Btki

∣∣∣2]− 1 = 0.

Quindi

E

nπk−1∑i=1

∣∣∣Btki+1−Btki

∣∣∣2 − T2 =

nπk−1∑i,j=1

(tki+1 − tki

)2E[(Yk,i − 1)2]

= C

nπk−1∑i,j=1

(tki+1 − tki

)2

dove C = E[(Yk,1 − 1)2] (finita perché le v.a. gaussiane hanno momenti di ogni ordine

finiti)

≤ C |πk|nπk−1∑i,j=1

(tki+1 − tki

)= C |πk|T

da cui la convergenza in media quadratica, e da essa la convergenza in probabilità per illemma di Chebyshev. Infine, da queste convergenze discende la convergenza quasi certadi una sottosuccessione; ma allora vale (per le partizioni di quella sottosuccessione)l’ipotesi della Proposizione 22, da cui il fatto che le traiettorie non sono BV [0, T ], conprobabilità uno.

Esercizio 10 Mostrare che lungo le partizioni diadiche vale la convergenza quasi certa

di∑nπk−1

i=1

∣∣∣Btki+1−Btki

∣∣∣2 a T .2.2.4 Non differenziabilità

Per capire la dimostrazione della non differenziabilità, affrontiamo prima un problemapiù semplice: la non differenziabilità in un punto prefissato.

Page 41: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

2.2. REGOLARITÀ DEL MOTO BROWNIANO 41

Proposizione 23 Dato t0 ≥ 0, q.c. le traiettorie di un moto browniano non sonodifferenziabili in t0. Detto più formalmente,

P

(ω ∈ Ω : lim

h→0

Bt0+h (ω)−Bt0 (ω)

hesiste finito

)= 0.

Proof. Per ogni R > 0, sia NR l’evento

NR =

ω ∈ Ω : l (ω) := lim

h→0

Bt0+h (ω)−Bt0 (ω)

hesiste, |l (ω)| ≤ R

.

Vogliamo dimostrare che P (NR) = 0 (dall’arbitrarietà di R segue la tesi della propo-sizione). Come osservazione generale, se per un evento N abbiamo N ⊂ ∪k≥0 ∩n≥k Ane vale limn→∞ P (An) = 0, allora P (N) = 0. Infatti, N ⊂ ∪k≥0Nk con Nk = ∩n≥kAn;quindi Nk ⊂ An per ogni n ≥ k, da cui segue P (Nk) ≤ infn≥k P (An) = 0; questoimplica infine P (N) = 0.Premettiamo un facile fatto di analisi. Se l (ω) := limh→0

Bt0+h(ω)−Bt0 (ω)

hesiste, con

|l (ω)| ≤ R, allora esiste δ (ω) > 0 tale che per ogni h con |h| ≤ δ (ω) vale

|Bt0+h (ω)−Bt0 (ω)| ≤ (R + 1) |h| .

Infatti, per definizione di limite, (preso ε = 1) esiste δ (ω) > 0 tale che per ogni h con|h| ≤ δ (ω) vale l (ω)−1 ≤ Bt0+h(ω)−Bt0 (ω)

h≤ l (ω)+1, da cui −R−1 ≤ Bt0+h(ω)−Bt0 (ω)

h≤

R + 1, da cui |Bt0+h (ω)−Bt0 (ω)| ≤ (R + 1) |h|.In particolare, esiste k (ω) > 0 tale che per ogni n con n ≥ k (ω) vale∣∣∣Bt0+ 1

n(ω)−Bt0 (ω)

∣∣∣ ≤ R + 1

n.

Quindi

NR ⊂ ∪k≥0 ∩n≥k A(R)k,n

A(R)n : =

ω ∈ Ω :

∣∣∣Bt0+ 1n

(ω)−Bt0 (ω)∣∣∣ ≤ R + 1

n

.

Ma

P(A(R)n

)= P

(∣∣∣Bt0+ 1n−Bt0

∣∣∣ ≤ R + 1

n

)= P

(∣∣∣∣∣Bt0+ 1n−Bt0√

1/n

∣∣∣∣∣ ≤ R + 1√n

)= P

(|Z| ≤ R + 1√

n

)

dove Z è unaN (0, 1). Si verifica facilmente che limn→∞ P(A

(R)n

)= 0, quindi P (NR) =

0. La dimostrazione è completa.

Page 42: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

42 CAPITOLO 2. IL MOTO BROWNIANO

Corollario 1 Dato un insieme numerabile D ⊂ [0,∞), q.c. le traiettorie di un motobrowniano non sono differenziabili in alcun punto di D:

P

(ω ∈ Ω : esiste t0 ∈ D tale che lim

h→0

Bt0+h (ω)−Bt0 (ω)

hesiste finito

)= 0.

Proof. Detto Nt0 l’insieme di misura nulla della proposizione precedente e detto NDquello di questo corollario, vale

ND = ∪t0∈DNt0

da cui discende subito la tesi.

Teorema 7 Sia B un moto browniano. Allora

P

(ω ∈ Ω : esiste t0 ∈ [0,∞) tale che lim

h→0

Bt0+h (ω)−Bt0 (ω)

hesiste finito

)= 0.

Proof. Dati R > 0, k ∈ N, sia NR,k l’insieme degli ω ∈ Ω tali che la funzionet 7−→ Bt (ω) è differenziabile almeno in un punto t0 ∈ [k, k + 1] con derivata in modulonon superiore ad R. Basta verificare che P (NR,k) = 0 per ogni R > 0, k ∈ N. Si capisceche se lo dimostriamo per k = 0, il caso generale sarà uguale. Quindi dimostriamoP (NR) = 0 dove

NR =

ω ∈ Ω : esiste t0 ∈ [0, 1] tale che esiste lim

h→0

Bt0+h (ω)−Bt0 (ω)

h∈ [−R,R]

.

Volendo ricalcare la dimostrazione vista sopra, si deve cercare di esprimere NR

tramite unioni ed intersezioni numerabili riconducendosi ad insiemi più elementariaventi probabilità molto piccola. Ma qui la prima diffi coltà è che la condizione “dif-ferenziabile almeno in un punto” coinvolge a priori l’unione più che numerabile dieventi. Cerchiamo allora di dedurre, dalla condizione che definisce NR, una condizioneesprimibile in modo numerabile.Abbiamo già verificato nella dimostrazione della Proposizione 23 che, se Bt (ω) è

differenziabile in t0 con derivata in modulo non superiore ad R, allora esiste δ (ω) > 0tale che |Bt0+h (ω)−Bt0 (ω)| ≤ (R + 1)h per ogni h ∈ [0, δ (ω)]. Allora, posto

AM,δ := ω ∈ Ω : esiste t0 ∈ [0, 1] tale che |Bt0+h (ω)−Bt0 (ω)| ≤Mh per ogni h ∈ [0, δ]

valeNR ⊂

⋃δ>0

AR+1,δ.

Ma vale anche⋃δ>0

AR+1,δ =⋃n∈N

AR+1,1/n, quindi se dimostriamo che P (AM,δ) = 0 per

ogni M > 0, δ > 0, possiamo dedurre P (NR) = 0 per ogni R > 0. Mostriamo quindiche P (AM,δ) = 0.

Page 43: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

2.2. REGOLARITÀ DEL MOTO BROWNIANO 43

Per inquadrare i calcoli che seguono, può essere utile introdurre anche gli eventi(fissato t0 ∈ [0, 1])

AM,δ,t0 := ω ∈ Ω : |Bt0+h (ω)−Bt0 (ω)| ≤Mh per ogni h ∈ [0, δ] .

Vale AM,δ =⋃

t0∈[0,1]

AM,δ,t0 ma, come già osservato, si tratta di un’unione più che

numerabile.Tuttavia, per ogni n tale che 2

2n< δ, e per ogni t0 ∈ [0, 1], vale

AM,δ,t0 ⊂ DM,n,k(t0) ⊂⋃

k=0,...,2n

DM,n,k

dove

DM,n,k :=

ω ∈ Ω :

∣∣∣B k+12n

(ω)−B k2n

(ω)∣∣∣ ≤ 3M

2n

e k (t0) è il valore in 0, ..., 2n per cui k(t0)−1

2n< t0 ≤ k(t0)

2n. Infatti, se ω ∈ AM,δ,t0 ,

vale |Bt0+h (ω)−Bt0 (ω)| ≤ Mh per ogni h ∈ [0, δ]; quindi, osservando che grazie allacondizione 2

2n< δ i numeri k(t0)

2ne k+1

2nstanno in [t0, t0 + δ], e che k(t0)

2n− t0 ≤ 1

2ne

k(t0)+12n− t0 ≤ 2

2n, vale∣∣∣B k(t0)+1

2n(ω)−B k(t0)

2n(ω)∣∣∣ ≤ ∣∣∣B k(t0)

2n(ω)−Bt0 (ω)

∣∣∣+∣∣∣B k(t0)+1

2n(ω)−Bt0 (ω)

∣∣∣che per la condizione ω ∈ AM,δ,t0 risulta

≤M

((k (t0)

2n− t0

)+

(k (t0) + 1

2n− t0

))≤ 3M

2n.

L’inclusione AM,δ,t0 ⊂⋃

k=0,...,2n

DM,n,k così dimostrata vale per ogni t0 ∈ [0, 1] e l’evento

di destra non dipende da t0, quindi possiamo dire che AM,δ ⊂⋃

k=0,...,2n

DM,n,k. Siamo

riusciti a tradurre l’unione più che numerabile AM,δ in un’unione numerabile (conun’inclusione, non un’identità).Purtroppo questa fatica non basta. Infatti

P

( ⋃k=0,...,2n

DM,n,k

)≤

2n∑k=0

P (DM,n,k) ≤2n∑k=0

C

√1

2n

che diverge, dove la disuguaglianza P (DM,n,k) ≤ C√

12nsi dimostra come descritto

sotto. Bisogna allora introdurre l’ultimo elemento non banale della dimostrazione.

Page 44: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

44 CAPITOLO 2. IL MOTO BROWNIANO

Per ogni n tale che 42n< δ, e per ogni t0 ∈ [0, 1], vale

AM,δ,t0 ⊂ DM,n,k(t0) ⊂⋃

k=0,...,2n

DM,n,k

dove

DM,n,k :=

∣∣∣B k+12n−B k

2n

∣∣∣ ≤ 3M

2n,∣∣∣B k+2

2n−B k+1

2n

∣∣∣ ≤ 5M

2n,∣∣∣B k+3

2n−B k+2

2n

∣∣∣ ≤ 7M

2n

.

Infatti, dalla condizione |Bt0+h −Bt0| ≤ Mh per ogni h ∈ [0, δ], osservando chek(t0)2n, k(t0)+1

2n, k(t0)+2

2n, k(t0)+3

2nstanno in [t0, t0 + δ], e che k(t0)+j

2n−t0 ≤ 1+j

2n, vale

∣∣∣B k(t0)+12n−B k(t0)

2n

∣∣∣ ≤3M2n(già dimostrato),∣∣∣B k(t0)+2

2n−B k(t0)+1

2n

∣∣∣ ≤ ∣∣∣B k(t0)+12n−Bt0

∣∣∣+∣∣∣B k(t0)+2

2n−Bt0

∣∣∣≤ M

((k (t0) + 1

2n− t0

)+

(k (t0) + 2

2n− t0

))≤ 5M

2n

ed analogamente∣∣∣B k(t0)+3

2n−B k(t0)+2

2n

∣∣∣ ≤ 7M2n. Quindi AM,δ ⊂

⋃k=0,...,2n

DM,n,k, per cui

P (AM,δ) ≤2n∑k=0

P(DM,n,k

).

Ora, per l’indipendenza degli incrementi vale

P(DM,n,k

)≤ P

(∣∣∣B k+12n−B k

2n

∣∣∣ ≤ 7M

2n

)P

(∣∣∣B k+22n−B k+1

2n

∣∣∣ ≤ 7M

2n

)P

(∣∣∣B k+32n−B k+2

2n

∣∣∣ ≤ 7M

2n

)= P

(|Z| ≤ 7M

√1

2n

)3

dove Z è una N (0, 1). Quindi

P (AM,δ) ≤2n∑k=0

P

(|Z| ≤ 7M

√1

2n

)3

= (2n + 1)P

(|Z| ≤ 7M

√1

2n

)3

.

Ricordiamo che questa disuguaglianza vale per ogni n tale che 42n

< δ. Usando ladensità gaussiana si verifica subito che

limn→∞

(2n + 1)P

(|Z| ≤ 7M

√1

2n

)3

≤ C limn→∞

(2n + 1)

(1

2n

)3/2

= 0

Page 45: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

2.2. REGOLARITÀ DEL MOTO BROWNIANO 45

dove C =(

)3/2(7M)3, in quanto P (|Z| ≤ r) ≤

√2πr per ogni r > 0 (basta osservare

che P (|Z| ≤ r) =∫ r−r

1√2π

exp(−x2

2

)dx ≤

∫ r−r

1√2πdx). Quindi P (AM,δ) = 0. La

dimostrazione è completa.

Osservazione 8 Col linguaggio della misura di Wiener, l’enunciato precedente fa uncerto effetto: l’insieme delle funzioni continue che sono derivabili almeno in un punto,ha misura di Wiener nulla, è un insieme trascurabile. Se immaginassimo la misura diWiener alla stregua della misura di Lebesgue negli spazi Rn, questo enunciato direbbeche le funzioni differenziabili in almeno un punto sono un insieme davvero piccolissimorispetto alla totalità delle funzioni continue!

Page 46: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

46 CAPITOLO 2. IL MOTO BROWNIANO

Page 47: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

Capitolo 3

Martingale

3.1 Definizioni

SiaM = (Mt)t≥0 un processo stocastico a valori reali su uno spazio (Ω,F , P ) ed (Ft)t≥0

una filtrazione. Supponiamo che sia E [|Mt|] < ∞ per ogni t ≥ 0 e che sia adattato.Diciamo che M è una martingala rispetto alla filtrazione (Ft)t≥0 se per ogni t > s ≥ 0vale 1

E [Mt|Fs] = Ms.

Se invece vale E [Mt|Fs] ≥ Ms parliamo di submartingala, mentre se vale E [Mt|Fs] ≤Ms parliamo di supermartingala2.Calcolando il valore atteso di ambo i membri della condizione di martingala (risp.

submartigala) si vede che E[Mt] = E[Ms] (risp. E[Mt] ≥ E[Ms]) quindi la funzionevalore atteso m (t) è costante (risp. crescente). Una martingala in media e costante(risp. una supermartingala in media cresce).Le stesse definizioni si applicano al caso di un processo a tempo discreto M =

(Mn)n∈N. In questo caso è suffi ciente che valga la condizione quando i tempi s e t sonoconsecutivi; vediamolo nel caso delle martingale. Se vale

E [Mn+1|Fn] = Mn

per ogni n ∈ N, allora vale

E [Mn+2|Fn] = E [E [Mn+2|Fn+1] |Fn] = E [Mn+1|Fn] = Mn

1Ricordiamo che ogni identità coinvolgente una speranza condizionale va intesa quasi certamenteo come identità tra classi di equivalenza

2I termini sub e super martinagala sono diffi cili da interiorizzare perché sembrano opposti all’in-tuizione: il prefisso sub sembra richiamare la decrescenza, mentre la miglior previsione del futuro(Xt) al momento attuale (Fs) è maggiore del presente (Xs), cioè in un certo senso il processo ha unatendenza a crescere. Se però si associa la parola coda (temporalmente intesa come il passato) a quelladi martingala, si può pensare che una submartingala abbia la coda in ribasso e questo può aiutare lamemoria.

47

Page 48: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

48 CAPITOLO 3. MARTINGALE

e quindi iterativamente si verifica che vale E [Mm|Fn] = Mn per ogni m > n ∈ N.La definizione di martingala equivale alla seguente: i) (Mt)t≥0 è integrabile ed

adattato a (Ft)t≥0, ii) per ogni t > s ≥ 0 vale

E [Mt −Ms|Fs] = 0.

Infatti, per l’adattamento, vale E [Ms|Fs] = Xs. Forse da questo punto di vista nonstupisce la seguente proposizione, che stabilisce la vicinanza del concetto di martingalacol concetto di processo a incrementi indipendenti e centrati (valore atteso nullo).Premettiamo due definizioni.Un processoX = (Xt)t≥0 si dice a incrementi indipendenti rispetto ad una filtrazione

(Ft)t≥0 se è adattato e Xt−Xs è indipendente da Fs per ogni t ≥ s ≥ 0. [La condizionedi indipendenza, quando Ft = σ (Xu;u ∈ [0, t]), equivale alla seguente: per ogni n ∈ Ned ogni tn ≥ tn−1 ≥ ... ≥ t1 ≥ 0 le v.a. Xtn−Xtn−1 , ..., Xt2−Xt1 , Xt1 sono indipendenti.La dimostrazione di questa equivalenza è identica a quella svolta ne caso del motobrowniano, Proposizione 17]. Diciamo che un processo X, tale che E [X2

t ] < ∞ perogni t ≥ 0, ha incrementi scorrelati se

Cov (Xt −Xs, Xu −Xv) = 0

per ogni t ≥ s ≥ u ≥ v ≥ 0.

Proposizione 24 Se X è un processo, con E [|Xt|] <∞ per ogni t ≥ 0, ha incrementicentrati e indipendenti rispetto a (Ft)t≥0, allora è una martingala rispetto a (Ft)t≥0.Se X è una martingala rispetto ad una filtrazione (Ft)t≥0, con E [X2

t ] < ∞ perogni t ≥ 0, allora è un processo a incrementi scorrelati e centrati. Se inoltre è unprocesso gaussiano, allora ha incrementi indipendenti rispetto alla filtrazione generatadal processo (F00

t )t≥0.

Proof. La prima affermazione è immediata: presi t ≥ s ≥ 0, per l’indipendenza da Fsed il valore atteso nullo dell’incremento Xt −Xs, vale

E [Xt −Xs|Fs] = E [Xt −Xs] = 0.

Vediamo la seconda. Il valore atteso nullo si vede così: per la proprietàE [Xt −Xs|Fs] =0 ed una proprietà dei valori attesi condizionali (analogo della formula di fattoriz-zazione), vale

0 = E [E [Xt −Xs|Fs]] = E [Xt −Xs] .

Mostriamo che gli incrementi sono scorrelati. Presi t ≥ s ≥ u ≥ v ≥ 0, ed avendo giàstabilito che il valore atteso di ogni incremento è nullo, vale (usando varie proprietàdella speranza condizionale)

Cov (Xt −Xs, Xu −Xv) = E [(Xt −Xs) (Xu −Xv)] = E [E [(Xt −Xs) (Xu −Xv) |Fs]]= E [(Xu −Xv)E [(Xt −Xs) |Fs]] = 0,

Page 49: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

3.1. DEFINIZIONI 49

l’ultimo passaggio essendo valido in quanto E [(Xt −Xs) |Fs] = 0. Infine, se il processoè pure gaussiano, presi tn > tn−1 > ... > t1 ≥ 0, il vettore

(Xtn −Xtn−1 , ..., Xt2 −Xt1

)è gaussiano ed ha matrice di covarianza diagonale, per cui ha componenti indipendenti.Da questo discende che, per ogni t ≥ s ≥ 0, Xt−Xs è indipendente da F00

s (lo abbiamogià dimostrato in occasione delle riformulazioni della definizione di moto browniano.La dimostrazione è completa.Il secondo esempio illustrato nella prossima sezione è una martingala ma non ha

incrementi indipendenti (solo scorrelati). Quindi c’è spazio tra queste due categorieapparentemente molto vicine (processi a incrementi indipendenti e scorrelati) e lemartingale si collocano in tale spazio.

3.1.1 Esempi

Vediamo due esempi fondamentali. Per noi le martingale saranno rilevanti princi-palmente per due ragioni (collegate): il moto browniano è una martingala e lo sono(sotto opportune ipotesi) gli integrali stocastici rispetto al moto browniano. E’utilis-simo vedere poi numerosi altri tipi di esempi, soprattutto a tempo discreto, anche piùelementari di questi, ma li rimandiamo agli esercizi.La teoria delle martingale è uno snodo unico nel calcolo stocastico. La proprietà

di martingala è tutto sommato apparentemente scarna, ed ha invece incredibili con-seguenze. Allora è importante sapere che i processi che a noi servono maggiormentesono martingale (o sono collegati a martingale, vedi il teorema di decomposizione diDoob). Questo motiva i due esempi seguenti, anche se il secondo può apparire un po’tecnico.

Esempio 1 Sia B = (Bt)t≥0 un moto browniano rispetto ad una filtrazione (Ft)t≥0.Allora B è una martingala rispetto a (Ft)t≥0, in quanto è un processo centrato aincrementi indipendenti (Proposizione 24).

Veniamo al secondo esempio. Sia B = (Bt)t≥0 un moto browniano rispetto ad unafiltrazione (Ft)t≥0 e siaX = (Xt)t≥0 un processo adattato a (Ft)t≥0 ma costante a trattirelativamente ad una sequenza di tempi tn ≥ tn−1 ≥ ... ≥ t1 = 0, cioè della forma

Xt =n−1∑i=1

Xti1[ti,ti+1) (t) , Xti misurabile rispetto a Fti , E[X2ti

]<∞.

Definiamo, per questo particolare processo3, per ogni b ≥ a ≥ 0,∫ b

a

XsdBs =n−1∑i=1

Xti

(B(a∨ti+1)∧b −B(a∨ti)∧b

).

3Ora ragioniamo su un processo X fissato, di questo tipo. Se si considera invece la classe di tuttiquesti processi, detti elementari, introducendo il simbolo

∫ baXsdBs si deve verificare che la definizione

non dipende dalla rappresentazione di X, che non è univoca.

Page 50: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

50 CAPITOLO 3. MARTINGALE

Le espressioni (a ∨ ti+1)∧ b e (a ∨ ti)∧ b sono un po’laboriose da interpretare, per cuipuò convenire l’uso della seguente riscrittura. Osserviamo che, fissati b ≥ a ≥ 0, sipuò arricchire la sequenza di tempi considerando la nuova sequenza t′n+2 ≥ t′n−1 ≥... ≥ t′1 = 0 formata dai tempi ti e da a, b; poi si può scrivere Xt nella formaXt =

∑n+1i=1 X

′t′i

1[t′i,t′i+1) (t) con X ′t′i misurabile rispetto a Ft′i così definiti: se t

′i = tj ∈

t1, ..., tn, poniamo X ′t′i = Xtj ; se t′i = a (risp. t′i = b) e tj ∈ t1, ..., tn è il più grande

con la proprietà tj ≤ a (risp. tj ≤ b), allora poniamo X ′t′i = Xtj . A questo punto∫ b

a

XsdBs =∑

a≤t′i≤t′i+1≤b

Xt′i

(Bt′i+1

−Bt′i

).

Naturalmente i punti t′i dipendono da a, b. Si può verificare che vale∫ baXsdBs +∫ c

bXsdBs =

∫ caXsdBs per ogni c ≥ b ≥ a ≥ 0; se ci si raffi gura la successione di tempi

ti ed i tempi c ≥ b ≥ a ≥ 0, l’idea è evidente, anche se noiosa da scrivere.

Osservazione 9 L’integrale stocastico ora introdotto ha una naturale interpretazionein finanza matematica. Supponiamo di considerare un titolo finanziario (azioni, titolidi stato,...) il cui prezzo cambia nel tempo. Indichiamo con St il prezzo al tempo t.Immaginiamo poi una partizione temporale tn ≥ tn−1 ≥ ... ≥ t1 = 0 corrispondente agliistanti in cui noi eseguiamo operazioni finanziarie. All’istante ti acquistiamo una quan-tità Xti del titolo finanziario suddetto. Paghiamo quindi Xti · Sti. Al tempo Xti+1 ven-diamo la quantità acquistata Xti, incassando Xti ·Sti+1. Complessivamente, con questasingola operazione abbiamo guadagnato (o perso, dipende dal segno) Xti ·

(Sti+1 − Sti

).

Supponiamo di ripetere l’operazione su ogni intervallino. Il guadagno complessivo sarà

n∑i=1

Xti

(Sti+1 − Sti

).

Vediamo quindi che integrali del tipo visto sopra rappresentano il guadagno complessivoin un certo periodo di tempo. Naturalmente, sopra abbiamo definito questo integralenel caso in cui sia S = B, ma tale operazione si potrà generalizzare ad altri casi, unavolta capita nel caso browniano.

Poniamo Mt =∫ t

0XsdBs.

Proposizione 25 M = (Mt)t≥0 è una martingala rispetto a (Ft)t≥0.

Proof. Intanto

E [|Mt|] ≤n−1∑i=1

E[|Xti |

∣∣Bti+1∧t −Bti∧t∣∣]

Page 51: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

3.1. DEFINIZIONI 51

e E[|Xti|

∣∣Bti+1∧t −Bti∧t∣∣] < ∞ per ogni i, grazie alla disuguaglianza di Hölder. Poi,

Mt =∫ t

0XudBu è Ft-misurabile, essendo somma e prodotto di variabili tutte Ft-

misurabili. Resta allora da dimostrare cheE [Mt −Ms|Fs] = 0, ovvero cheE[∫ t

sXudBu|Fs

]=

0. Si noti che l’incremento∫ tsXudBu non è indipendente da Fs: contiene (attraver-

so X) alcune delle v.a. Xti , che non sono supposte indipendenti da Fs. Riscriviamo∫ tsXudBu come detto sopra nella forma∫ t

s

XudBu =∑

s≤t′i≤t′i+1≤t

Xt′i

(Bt′i+1

−Bt′i

).

Vale

E

[∫ t

s

XudBu|Fs]

=∑

s≤t′i≤t′i+1≤t

E[Xt′i

(Bt′i+1

−Bt′i

)|Fs].

Mostriamo che ciascun termine E[Xt′i

(Bt′i+1

−Bt′i

)|Fs]è nullo, concludendo così la

dimostrazione. Vale

E[Xt′i

(Bt′i+1

−Bt′i

)|Fs]

= E[E[Xt′i

(Bt′i+1

−Bt′i

)|Ft′i]|Fs]

= E[Xt′i

E[Bt′i+1

−Bt′i

]|Fs]

= 0

avendo usato varie proprietà della speranza condizionale, l’inclusione Fs ⊂ Ft′i (ricor-diamo che nella somma precedente prendiamo solo i t′i ≥ s), l’indipendenza diBt′i+1

−Bt′i

da Ft′i , il fatto che Xt′iè Ft′i-misurabile, ed infine la proprietà E

[Bt′i+1

−Bt′i

]= 0. La

dimostrazione è completa.

Osservazione 10 Come già osservato, abbiamo così costruito un’ampia classe di es-empi che stanno nell’intercapedine (apparentemente molto piccola) tra “scorrelazione”e “indipendenza” (intesa per gli incrementi temporali). Gli integrali stocastici han-no incrementi scorrelati ma non necessariamente indipendenti (perché il processo X lilega).

3.1.2 Altri esempi e preliminari

Esempio 2 Ricordiamo che un processo stocastico (Nt)t≥0 si dice di Poisson di inten-sità λ > 0, rispetto ad una filtrazione (Ft)t≥0, se P (N0 = 0) = 1, è cadlag e per ognit ≥ s ≥ 0 l’incremento Nt−Ns è indipendente da Fs ed ha distribuzione di Poisson diparametro λ (t− s):

P (Nt −Ns = k) = e−λ(t−s) (λ (t− s))k

k!, k ∈ N.

Vale E [Nt −Ns] = λ (t− s). Posto

Mt = Nt − λt

Page 52: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

52 CAPITOLO 3. MARTINGALE

il processo (Mt)t≥0 è una martingala rispetto a (Ft)t≥0 (a causa di questo, la funzione λtviene detta compensatore). Infatti la proprietà di indipendenza degli incrementi restavera (non si modifica per addizione di una costante) e gli incrementi ora sono centrati:E [Mt −Ms] = 0. Quindi è una martingala per la Proposizione 24.

Esempio 3 Sia X una v.a. integrabile e (Ft)t≥0 una filtrazione. Allora

Mt = E [X|Ft]

è una martingala. Preliminarmente, osserviamo che E [|Mt|] ≤ E [E [|X| |Ft]] =E [|X|], quindi Mt è integrabile. Inoltre, E [X|Ft] è Ft-misurabile, quindi Mt è adat-tato. Vale poi

E [Mt|Fs] = E [E [X|Ft] |Fs] = E [X|Fs] = Ms

dove abbiamo usato la proprietà di doppia proiezione della speranza condizionale. Quin-diM è una martingala. A volte è detta “martingala chiusa da X”. Il processo E [X|Ft]ha un chiaro significato in varie applicazioni, ad esempio in finanza matematica: X rap-presenta una grandezza incognita del futuro (ammontare di vendite del prossimo mesedi luglio, valore di un titolo finanziario tra sei mesi, ecc.), Ft descrive il grado di in-formazione disponibile al tempo t, E [X|Ft] rappresenta la miglior stima di X fattibileal momento t. La formula E [Mt|Fs] = Ms esprime una coerenza tra le stime.

Proposizione 26 Se (Mt)t≥0 è una martingala, ϕ : R → R una funzione convessa eE [|ϕ (Mt)|] <∞ per ogni t ≥ 0 allora (ϕ (Mt))t≥0 è una submartingala. In particolare,lo sono |Mt| e M2

t (nel secondo caso se M è di quadrato integrabile).Se (Mt)t≥0 è una submartingala, ϕ : R→ R una funzione non decrescente convessa

e E [|ϕ (Mt)|] <∞ per ogni t ≥ 0 allora (ϕ (Mt))t≥0 è una submartingala.

Proof. Grazie alla convessità, per ogni punto x0 ∈ R esiste m (x0) ∈ R tale che

ϕ (x) ≥ ϕ (x0) +m (x0) (x− x0) , x ∈ R.

Per il seguito ci serve che la funzione m sia misurabile; una tale funzione esiste, comesi può verificare prendendo ad es. la derivata destra in x0. Presi t ≥ s ≥ 0, vale allora

ϕ (Mt) ≥ ϕ (Ms) +m (Ms) (Mt −Ms) (3.1)

e quindi (per monotonia e linearità della speranza condizionale)

E [ϕ (Mt) |Fs] ≥ E [ϕ (Ms) |Fs] + E [m (Ms) (Mt −Ms) |Fs]= ϕ (Ms) +m (Ms)E [(Mt −Ms) |Fs]

(per la misurabilità di ϕ (Ms) e m (Ms) rispetto a Fs). A questo punto, se M è unamartingala, E [(Mt −Ms) |Fs] = 0; se invece è una submartingala e ϕ è non decrescente

Page 53: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

3.2. TEMPI D’ARRESTO 53

(quindim ≥ 0 in ogni punto), E [(Mt −Ms) |Fs] ≥ 0 e quindim (Ms)E [(Mt −Ms) |Fs] ≥0. In entrambi i casi,

E [ϕ (Mt) |Fs] ≥ ϕ (Ms)

ovvero ϕ (Mt) è una submartingala.La dimostrazione ora data è però completa solo se m (Ms) (Mt −Ms) è integrabile.

La funzionem è limitata su intervalli limitati maMs non assume necessariamente valoriin un intervallo limitato, per cui servirebbe una stima della crescita di m all’infinitoed altro ancora. Si risolve tutto con un troncamento: si introduce l’evento AR =|Ms| ≤ R, si moltiplica la disuguaglianza (3.1) per 1AR e si prosegue come sopra (conle stesse motivazioni dei passaggi, più il fatto che ora la v.a. 1ARm (Ms) è limitata):

E [1ARϕ (Mt) |Fs] ≥ E [1ARϕ (Ms) |Fs] + E [1ARm (Ms) (Mt −Ms) |Fs]= 1ARϕ (Ms) + 1ARm (Ms)E [(Mt −Ms) |Fs]

da cui, come sopra,E [1ARϕ (Mt) |Fs] ≥ 1ARϕ (Ms) .

Se R < R′, AR ⊂ AR′ , quindi 1AR ≤ 1AR′ . Basta allora passare al limite, per R → ∞col teorema di convergenza monotona per la speranza condizionale, osservando che

limR→∞

1AR = 1

quasi certamente (in quanto ∪RAR = |Ms| <∞ che ha probabilità 1). La di-mostrazione è completa.

Osservazione 11 Se M è una submartingala, non è detto che lo siano |Mt| e M2t , in

quanto le funzioni x 7−→ |x| e x 7−→ x2 non sono crescenti. Se però M è a valori posi-tivi, si può modificare la dimostrazione e verificare che |Mt| e M2

t sono submartingale(nel secondo caso se M è di quadrato integrabile).

3.2 Tempi d’arresto

Fondamentali nello studio delle martingale sono i tempi aleatori. Genericamente,potremmo chiamare tempo aleatorio (non è una definizione canonica) ogni v.a. avalori in [0,∞), o addirittura a valori in [0,∞]. Un tempo aleatorio τ : Ω → [0,∞] sidirà tempo d’arresto, rispetto ad una filtrazione data (Ft)t≥0, se per ogni t ≥ 0 l’eventoτ ≤ t appartiene a Ft:

τ ≤ t ∈ Ft ∀t ≥ 0.

Quindi anche τ > t ∈ Ft. Se τ : Ω→ [0,∞), diremo che è un tempo d’arresto finito.Se esiste T > 0 tale che |τ | ≤ T , diremo che è un tempo d’arresto limitato.Quando tratteremo martingale a tempo discreto, relativamente a filtrazioni (Fn)n∈N,

considereremo sempre (e a volte tacitamente) tempi d’arresto a tempo discreto, cioè

Page 54: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

54 CAPITOLO 3. MARTINGALE

tempi aleatori τ : Ω → N ∪ +∞ tali che τ ≤ n ∈ Fn per ogni n ∈ N. Si verificasubito che questa condizione equivale a τ = n ∈ Fn per ogni n ∈ N. Infatti, se valela prima (τ ≤ n ∈ Fn), allora

τ = n = τ ≤ n \ τ ≤ n− 1 ∈ Fn

perché τ ≤ n ∈ Fn, τ ≤ n− 1 ∈ Fn−1 ⊂ Fn ed Fn è chiusa per differenza.Viceversa, se vale la seconda (τ = n ∈ Fn), allora

τ ≤ n =

n⋃k=0

τ = k ∈ Fn

perché τ = k ∈ Fk ⊂ Fn per ogni k = 0, ..., n ed Fn è chiusa per unione finita.Il significato intuitivo di tempo d’arresto è il seguente: fissato t0 ≥ 0 (ad esempio

l’orario di chiusura di un negozio) ci chiediamo se l’istante aleatorio τ (ad esempiol’arrivo di un cliente che deve ritirare della merce) avvenga prima o dopo t0. Tale evento,τ ≤ t0, è conoscibile al tempo t0, se per “conoscibili” intendiamo gli eventi dellafiltrazione data (nell’esempio del negozio, se la filtrazione è associata alle informazioninote a chi sta lavorando nel negozio, vale τ ≤ t0 ∈ Ft0 : lo vedono se il cliente èarrivato o no in tempo; se invece è una filtrazione associata alle informazioni note adun gestore a distanza che viene informato il giorno successivo di ciò che è accaduto innegozio, τ ≤ t0 /∈ Ft0).Abbiamo descritto questa nozione nel caso a tempo continuo, ma è identica a tempo

discreto.Un tempo deterministico τ = T è un tempo d’arresto, perché gli eventi della forma

τ ≤ t appartengono a ∅,Ω.Tra le numerose proprietà generali a volte utili segnaliamo la seguente, usata spesso

per ridurre un tempo d’arresto qualsiasi ad uno limitato:

Proposizione 27 Se τ 1, τ 2 sono tempi d’arresto, allora lo è anche τ 1 ∧ τ 2. In parti-colare, lo è τ 1 ∧ T per ogni tempo determinsitico T > 0.

Proof. Dato t ≥ 0,τ 1 ∧ τ 2 ≤ t = τ 1 ≤ t ∪ τ 2 ≤ t

e ciascuno di questi eventi appartiene a Ft.SiaX = (Xt)t≥0 un processo stocastico a valori in uno spazio metricoE (E = B (E)),

adattato alla filtrazione (Ft)t≥0. Sia A ∈ B (E). Introduciamo un tempo aleatorioτA : Ω → [0,∞] ponendo τA (ω) = inf t ≥ 0 : Xt (ω) ∈ A per ogni ω ∈ Ω tale chel’insieme t ≥ 0 : Xt (ω) ∈ A è non vuoto, τA (ω) = ∞ altrimenti. Useremo scriverepiù compattamente

τA = inf t ≥ 0 : Xt ∈ A

Page 55: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

3.2. TEMPI D’ARRESTO 55

intendendo tutte le frasi precedenti. Diciamo che τA è il tempo (o istante) di ingressodel processo nell’insieme A. Chiediamoci se sia un tempo d’arresto.Intanto vediamo il caso a tempo discreto. Definiamo cioè

τA = inf n ≥ 0 : Xn ∈ A

se l’insieme n ≥ 0 : Xn ∈ A è non vuoto, τA = ∞ altrimenti. Fissato n0 ∈ N, cichiediamo se τA ≤ n0 ∈ Fn0 . Vale

τA ≤ n0 = ∃n ≤ n0 : Xn ∈ A =⋃n≤n0

Xn ∈ A ∈ Fn0

dove l’ultima disuguaglianza deriva dal fatto che Xn ∈ A ∈ Fn e che Fn ⊂ Fn0 sen ≤ n0. Quindi è vero: τA è un tempo di arresto. Non serve alcuna altra ipotesi.A tempo continuo non è così. Proviamo a ripetere i passaggi precedenti, relativa-

mente ad un tempo fissato t0 ≥ 0:

τA ≤ t0 = ∀ε > 0,∃t ≤ t0 + ε : Xt ∈ A∀n ∈ N,∃t ≤ t0 +

1

n: Xt ∈ A

=

⋂n∈N

⋃t≤t0+ 1

n

Xt ∈ A .

L’evento Xt ∈ A appartiene a Ft e quindi a Ft0+ 1nse t ≤ t0 + 1

n. Ma prima di tutto

l’unione⋃

t≤t0+ 1n

è (a priori) più che numerabile. Quand’anche potessimo riesprimerla

come unione numerabile, quindi potessimo asserire che⋃

t≤t0+ 1n

Xt ∈ A ∈ Ft0+ 1n, poi

l’intersezione⋂n∈N

starebbe in Ft0 se la filtrazione fosse continua a destra, altrimenti

non potremmo concluderlo.

Proposizione 28 Se X è un processo continuo, A è un aperto e (Ft)t≥0 è continuaa destra, allora τA è un tempo di arresto. Lo stesso vale se X è continuo a destra ocontinuo a sinistra.

Proof. Se X è continuo e A è aperto allora∀n ∈ N, ∃t ≤ t0 +

1

n: Xt ∈ A

=

∀n ∈ N,∃t ≤ t0 +

1

n, t ∈ Q : Xt ∈ A

.

Basta verificare l’inclusione ⊂. Sia ω ∈ Ω tale che ∀n ∈ N, ∃t ≤ t0 + 1ntale che Xt ∈ A.

Se, relativamente ad n e t che verificano questa condizione, prendiamo una successione

Page 56: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

56 CAPITOLO 3. MARTINGALE

tn → t, tn ∈ Q, tn ≤ t0 + 1n, abbiamo Xtn (ω)→ Xt (ω), ma quindi Xtn (ω) ∈ A per n

abbastanza grande, in quanto A è aperto.L’identità precedente permette di scrivere

τA ≤ t0 =⋂n∈N

⋃t≤t0+ 1

n,t∈Q

Xt ∈ A

da cui discende la tesi per i ragionamenti già fatti sopra. Le verifiche nel caso continuoa destra o continuo a sinistra sono simili.Quando A, che ora chiameremo C, è chiuso ed X è continuo, si può modificare la

dimostrazione precedente dall’inizio e concludere che τC è un tempo d’arresto. Nonserve la continuità a destra della filtrazione. Il criterio è quindi anche più semplice delprecedente, ma la dimostrazione è più complicata. Si noti anche la riscrittura di τCcome minimo corrisponde ancor più all’idea di primo istante di ingresso in C.

Proposizione 29 Se X è un processo continuo e C è un chiuso, allora τC è un tempodi arresto e vale

τC = min t ≥ 0 : Xt ∈ C .

Proof. SeX è continuo eC è chiuso allora, preso ω ∈ Ω, se l’insieme t ≥ 0 : Xt (ω) ∈ C 6=∅, vale

τA (ω) = min t ≥ 0 : Xt (ω) ∈ C .

Infatti, per definizione di τC (ω) come inf t ≥ 0 : Xt (ω) ∈ C, esiste una successionetn (ω) ↓ τC (ω) tale che Xtn(ω) (ω) ∈ C; ma per continuità delle traiettorie Xtn(ω) (ω)→XτC(ω) (ω) e per chiusura di C valeXτA(ω) (ω) ∈ C. Quindi l’insieme t ≥ 0 : Xt (ω) ∈ Cpossiede minimo. Abbiamo dimostrato l’ultima affermazione della proposizione. Vedi-amo la prima.Ora possiamo dire che

τC ≤ t0 = ∃t ≤ t0 : Xt ∈ C =⋃t≤t0

Xt ∈ C .

Non possiamo però ridurre questa unione ad una numerabile perché dobbiamo im-maginare ad esempio il caso in cui C sia un singolo punto, ed il processo lo tocchi acerti istanti (non necessariamente membri di un insieme numerabile prefissato) ma nonpermanga in C.Il caso t0 = 0 però si risolve: τC ≤ 0 = X0 ∈ C ∈ F0. Possiamo restringerci a

t0 > 0.Introduciamo allora l’intorno aperto di raggio ε > 0 di C:

Cε = x ∈ E : d (x,C) < ε .

Page 57: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

3.2. TEMPI D’ARRESTO 57

Vale ⋃t≤t0

Xt ∈ C =⋂n∈N

⋃t≤t0,t∈Q

Xt ∈ C 1

n

∈ Ft0 .

L’appartenenza a Ft0 è ovvia. Verifichiamo l’identità tra i due insiemi. L’inclusione ⊂è concettualmente più facile. Sia ω nell’insieme di sinistra. Se per un certo t ≤ t0 valeXt (ω) ∈ C, allora per ogni n ∈ N esiste un numero razionale tn ≤ t0 tale che Xtn (ω) ∈C 1n, per continuità della traiettoria X· (ω). Quindi l’inclusione ⊂ è dimostrata.Vediamo l’inclusione ⊃. Sia ω nell’insieme di destra. Per ogni n ∈ N esiste un

numero razionale tn ≤ t0 tale che Xtn (ω) ∈ C 1n. Dalla successione limitata tn si può

estrarre una sottosuccessione convergente tnk; sia t il suo limite; vale t ≤ t0. Percontinuità di X· (ω) vale limk→∞Xtnk

(ω) = Xt (ω). Se dimostriamo che Xt (ω) ∈ C,allora ω appartiene anche all’insieme di sinistra.Ma Xtnk

(ω) ∈ C 1nk

. Questo implica che esiste un elemento ek (ω) ∈ C tale che

d(Xtnk

(ω) , ek (ω))≤ 2

nk. Siccome limk→∞ d

(Xtnk

(ω) , Xt (ω))

= 0,

limk→∞

d (Xt (ω) , ek (ω)) ≤ limk→∞

d(Xtnk

(ω) , Xt (ω))

+ limk→∞

d(Xtnk

(ω) , ek (ω))

= 0.

Questo significa ek (ω) → Xt (ω), quindi Xt (ω) ∈ C perché C è chiuso. La di-mostrazione è completa.

3.2.1 La σ-algebra associata ad un tempo d’arresto

Sia (Ω,F , P ) uno spazio probabilizzato e τ : Ω → [0,∞] un tempo d’arresto rispettoad una filtrazione (Ft)t≥0. Sappiamo che se per ogni t ≥ 0 l’evento τ ≤ t appartienea Ft. Prendiamo un evento A ∈ F∞ = ∨tFt. Esaminiamo la condizione

A ∩ τ ≤ t ∈ Ft per ogni t ≥ 0.

La famiglia di tutti gli insiemi A ∈ F∞ che soddisfano questa condizione è una σ-algebra, che indichiamo con Fτ . Infatti Ω ∈ Fτ perché Ω ∩ τ ≤ t = τ ≤ t ∈ Ft; seA ∈ Fτ allora Ac ∈ Fτ perché

Ac ∩ τ ≤ t = τ ≤ t \ (A ∩ τ ≤ t) ;

ed infine, se An ⊂ Fτ allora ∪nAn ∈ Fτ per la proprietà distributiva di unione eintersezione.Si noti che se A ∈ Ft0 per qualche t0 ≥ 0, non è detto che sia A ∈ Fτ , perché la

condizione A ∈ Fτ richiede che sia A ∩ τ ≤ t ∈ Ft per ogni t ≥ 0, non solo al tempot0. Quindi può apparire non è ovvio esibire eventi di Fτ . Invece, ad esempio un eventodel tipo

τ ∈ [0, T ]

Page 58: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

58 CAPITOLO 3. MARTINGALE

con T > 0 ci sta. Infatti

τ ∈ [0, T ] ∩ τ ≤ t = τ ∈ [0, t ∧ T ] ∈ Ft∧T ⊂ Ft.

Quindi τ è Fτ -misurabile. Pertanto, gli eventi della forma τ ∈ B, con B ∈ B (R),sono esempi di eventi di Fτ .Non si deve però pensare che Fτ sia la σ-algebra generata da τ . La seguente

proposizione fornisce ulteriori eventi di Fτ .

Proposizione 30 Sia τ un tempo d’arresto finito. Sia (Xt)t≥0 un processo progressi-vamente misurabile. Allora Xτ (definito da ω 7−→ Xτ(ω) (ω)) è una v.a. Fτ -misurabile.

Proof. Consideriamo l’applicazione misurabile ω 7−→ (τ (ω) , ω) da (Ω,F∞) in ([0,∞)× Ω,B ([0,∞))×F∞)e l’applicazione misurabile (s, ω) 7−→ Xs (ω) da ([0,∞)× Ω,B ([0,∞))×F∞) in (R,B (R)).La loro composizione è l’applicazione ω 7−→ Xτ(ω) (ω) che quindi risulta misurabile da(Ω,F∞) in (R,B (R)). Questo chiarisce che ogni evento della forma Xτ ∈ B conB ∈ B (R) è F∞-misurabile. Preso poi t ≥ 0, esaminiamo la condizione Xτ ∈ B ∩τ ≤ t ∈ Ft; se vale, significa che Xτ ∈ B ∈ Fτ , quindi Xτ è Fτ -misurabile.Osserviamo che

Xτ ∈ B ∩ τ ≤ t = Xτ∧t ∈ B ∩ τ ≤ tquindi basta verificare che Xτ∧t ∈ B ∈ Ft.Consideriamo allora l’applicazione ω 7−→ (τ (ω) ∧ t, ω) da (Ω,Ft) in ([0, t]× Ω,B ([0, t])×Ft)

e l’applicazione (s, ω) 7−→ Xs (ω) da ([0, t]× Ω,B ([0, t])×Ft) in (R,B (R)). La lorocomposizione è l’applicazione ω 7−→ Xτ(ω)∧t (ω). Se le due applicazioni che componi-amo sono misurabili, allora lo è la loro composizione, da (Ω,Ft) in (R,B (R)) e questoimplica che Xτ∧t ∈ B ∈ Ft per ogni B ∈ B (R). La seconda delle due applicazioni èmisurabile per l’ipotesi di progressiva misurabilità. Vediamo la prima.L’applicazione ω 7−→ (τ (ω) ∧ t, ω) da (Ω,Ft) in ([0, t]× Ω,B ([0, t])×Ft) è misura-

bile. Basta verificarlo su un insieme di generatori. Prendiamo un insieme della forma[0, t0]×B con t0 ∈ (0, t) e B ∈ Ft. La sua controimmagine è l’insieme

ω ∈ Ω : τ (ω) ∧ t ∈ [0, t0] ∩ ω ∈ B = τ ≤ t0 ∩B

che appartiene a Ft perchéB ∈ Ft e τ ≤ t0 ∈ Ft0 ⊂ Ft. La dimostrazione è completa.

3.3 Teoremi d’arresto e disuguaglianze

La strategia generale che seguiremo sarà di dimostrare prima i teoremi fondamentalinel caso a tempo discreto, poi di dedurre da essi il caso continuo con un passaggio allimite, da tempi diadici a tempi qualsasi (che coinvolgerà qualche ipotesi di continuitàdel processo).

Page 59: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

3.3. TEOREMI D’ARRESTO E DISUGUAGLIANZE 59

3.3.1 Il caso a tempo discreto

Sia M = (Mn)n∈N una martingala a tempo discreto. I tempi d’arresto di cui si parlerànel seguito sono sempre a valori nei numeri naturali, eventualmente con l’aggiunta di+∞. Un tempo d’arresto si dirà limitato superiormente se esiste una costante (interanel caso a tempo discreto) N > 0 tale che τ (ω) ≤ N per ogni ω ∈ Ω. Se M è unamartingala (quindi integrabile) e τ è un tempo d’arresto limitato superiormente dallacostante intera N > 0, allora le v.a. Mτ

4 e maxn=1,...,N |Mn| sono integrabili:

E [|Mτ |] ≤ E

[max

n=1,...,N|Mn|

]≤ E

[N∑n=1

|Mn|]

=

N∑n=1

E [|Mn|] <∞.

Lo stesso vale per sub e super martingale o per qualsiasi processo discreto integrabile.Questa premessa interviene in molte delle dimostrazioni seguenti e non verrà ripetuta.Nel seguente teorema l’affermazione E [MN ] = E [M0] è ovvia, come abbiamo

osservato subito dopo la definizione di martingala.

Teorema 8 (d’arresto) Se τ è un tempo d’arresto limitato superiormente da unintero N , allora

E [Mτ ] = E [MN ] = E [M0] .

Se M è una submartingala, allora vale E [Mτ ] ≤ E [MN ].

Proof. Con le notazioni precedenti vale

E [Mτ ] =N∑n=0

E [Mτ1τ=n] =N∑n=0

E [Mn1τ=n] .

Per la proprietà di martingala E [Mn1τ=n] = E [MN1τ=n], quindi

E [Mτ ] =N∑n=0

E [MN1τ=n] = E [MN ] .

Ma E [MN ] = E [M0]. La proprietà è dimostrata. Il caso della submartingala è identico,senza il passaggio finale.

Corollario 2 Se τ 1 ≤ τ 2 sono due tempi d’arresto limitati superiormente, allora vale

E [Mτ2|Fτ1 ] = Mτ1 .

Se M è una submartingala e τ 2 = N è costante, allora vale

E [MN |Fτ1 ] ≥Mτ1 .

4Definita da (Mτ ) (ω) =Mτ(ω) (ω)

Page 60: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

60 CAPITOLO 3. MARTINGALE

Proof. PresoA ∈ Fτ1 dobbiamo dimostrare che∫AMτ2dP =

∫AMτ1dP (risp.

∫AMNdP =∫

AMτ1dP nel caso della submartingala). Consideriamo la funzione τ 3 : Ω → [0,∞)

definita da

τ 3 (ω) =

τ 1 (ω) se ω ∈ Aτ 2 (ω) se ω /∈ A .

Verifichiamo che sia un tempo d’arresto. Preso t ≥ 0, vale

τ 3 ≤ t = (A ∩ τ 1 ≤ t) ∪ (Ac ∩ τ 2 ≤ t) .

L’insieme A ∩ τ 1 ≤ t appartiene a Ft per l’ipotesi su A. Ac ∈ Fτ1 , quindi Ac ∈ Fτ2(si veda l’esercizio 11), pertanto Ac ∩ τ 2 ≤ t ∈ Ft. Quindi τ 3 ≤ t ∈ Ft, cioè τ 3 èun tempo d’arresto. Ovviamente è anch’esso limitato.Per il teorema d’arresto vale allora

E [Mτ3 ] = E [MN ] = E [Mτ2 ]

(risp. E [Mτ3 ] ≤ E [MN ] nel caso della submartingala) cioè, ricordando la definizionedi τ 3,

E [Mτ11A +Mτ21Ac ] = E [Mτ2 ]

da cuiE [Mτ11A] = E [Mτ21A], che è ciò che volevamo dimostrare (risp. E [Mτ11A +MN1Ac ] ≤E [MN ] da cui E [Mτ11A] ≤ E [MN1A] nel caso della submartingala). La dimostrazioneè completa.

Osservazione 12 I due risultati precedenti sono equivalenti. Abbiamo dimostrato ilcorollario a partire dal teorema. Se invece avessimo dimostrato prima il corollario,basterebbe prendere la speranza di ambo i membri delle sue formule per ottenere quelledel teorema.

Osservazione 13 Vedremo più avanti che si può rimuovere l’ipotesi τ 2 = N , nelcorollario.

Teorema 9 (disuguaglianza massimale) Sia M una martingala oppure una sub-martingala positiva. Allora, per ogni N intero positivo e per ogni λ > 0, vale

P

(max

n=1,...,N|Mn| ≥ λ

)≤ 1

λE[|MN | 1maxn=1,...,N |Mn|≥λ

]≤ 1

λE [|MN |] .

Proof. Per capire la naturalezza del primo passaggio della dimostrazione è utile ricor-dare la dimostrazione della disuguaglianza di Chebyshev: essa asserisce che P (|X| ≥ λ) ≤1λE [|X|], per ogni λ > 0 ed ogni v.a. X, e la dimostrazione si svolge semplicementeapplicando la monotonia del valore atteso alla disuguaglianza

λ1|X|≥λ ≤ |X| 1|X|≥λ.

Page 61: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

3.3. TEOREMI D’ARRESTO E DISUGUAGLIANZE 61

Veniamo al caso delle submartingale. Data la submartingala originaria M =(Mn)n∈N e dato N intero positivo, introduciamo una nuova submartingala MN =(MN

n

)n∈N definita da M

Nn = Mn per n ≤ N , MN

n = MN per n > N . E’ equiva-lente dimostrare la tesi del teorema perMN . Quindi possiamo supporre sin dall’inizio,senza restrizione, che M sia costante dal tempo N in poi; facciamo questa ipotesi edusiamo la notazione M per la nostra submartingala.Introduciamo la funzione τN : Ω→ 0, ..., N definita da

τN = min n ≤ N : |Mn| ≥ λ

se tale insieme non è vuoto, τN = N + 1 altrimenti. E’un tempo d’arresto: se n0 ≤ N ,

τN ≤ n0 =⋃n≤n0

|Mn| ≥ λ ∈ Fn0

mentre, se n0 > N ,

τN ≤ n0 = τN = N + 1 =⋂n≤N|Mn| < λ ∈ FN ⊂ Fn0 .

Valeλ1maxn=1,...,N |Mn|≥λ ≤ |MτN | 1maxn=1,...,N |Mn|≥λ.

Infatti, sull’evento maxn=1,...,N |Mn| ≥ λ vale τN ≤ N e MτN ≥ λ.Integrando,

P

(max

n=1,...,N|Mn| ≥ λ

)≤ 1

λE[|MτN | 1maxn=1,...,N |Mn|≥λ

].

Ora, l’evento maxn=1,...,N |Mn| ≥ λ = τN ≤ N appartiene a FτN ed il processo|Mn| è una submartingala (se Mn è una martingala, allora |Mn| è una submartingalacome trasformazione convessa; se Mn è una martingala positiva, allora |Mn| è unasubmartingala come trasformazione convessa crescente), quindi vale, per il Corollario2,

E[|MτN | 1maxn=1,...,N |Mn|≥λ

]≤ E

[|MN+1| 1maxn=1,...,N |Mn|≥λ

]= E

[|MN | 1maxn=1,...,N |Mn|≥λ

]dove abbiamo usato il fatto che τN ≤ N + 1 e che MN+1 = MN . La dimostrazione ècompleta.

Corollario 3 Dato p ≥ 1, se E [|Mn|p] <∞ per ogni n, allora

P

(max

n=1,...,N|Mn| ≥ λ

)≤ 1

λpE [|MN |p] .

Dato θ > 0, se E[eθ|Mn|

]<∞ per ogni n, allora

P

(max

n=1,...,N|Mn| ≥ λ

)≤ e−θλE

[eθ|MN |

].

Page 62: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

62 CAPITOLO 3. MARTINGALE

Proof. Il processo |Mn|p è una submartingala, per la Proposizione 26. Per la disug-uaglianza massimale applicata a |Mn|p e λp

P

(max

n=1,...,N|Mn| ≥ λ

)= P

(max

n=1,...,N|Mn|p ≥ λp

)≤ 1

λpE [|MN |p] .

La dimostrazione della seconda disuguaglianza è identica, usando la funzione convessae crescente x 7−→ eθx.Le stime delle code di una v.a. implicano stime sui valori medi. Ricordiamo:

Lemma 3 Se X è una v.a. integrabile non negativa, allora

E [Xp] =

∫ ∞0

pap−1P (X ≥ a) da

per ogni p ≥ 1.

Proof.∫ ∞0

pap−1P (X ≥ a) da =

∫ ∞0

pap−1E [1X≥a] da = E

[∫ ∞0

pap−11X≥ada

]= E

[∫ X

0

pap−1da

]= E [Xp] .

Nell’ambito delle equazioni differenziali stocastiche, il seguente risultato è moltoutile.

Teorema 10 (disuguaglianza di Doob) Se M è una martingala oppure una sub-martingala positiva, per ogni p > 1 vale

E

[max

n=1,...,N|Mn|p

]≤(

p

p− 1

)pE [|MN |p] .

Precisamente, se E [|MN |p] = +∞, la disuguaglianza è ovvia; se E [|MN |p] <∞ alloraanche maxn=1,...,N |Mn|p è integrabile e vale la disuguaglianza.Proof. Poniamo M∗

N = maxn=1,...,N |Mn|. Allora

E

[max

n=1,...,N|Mn|p

]=

∫ ∞0

pap−1P (M∗N ≥ a) da ≤

∫ ∞0

pap−1 1

aE[|MN | 1M∗N≥a

]da

= E

[|MN |

∫ M∗N

0

pap−2da

]=

p

p− 1E[|MN | (M∗

N)p−1] .Per la disuguaglianza di Hölder, ricordando che 1

p+ p−1

p= 1,

E[|MN | (M∗

N)p−1] ≤ E [|MN |p]1p E [(M∗

N)p]p−1p

quindi, dividendo per E [(M∗N)p]

p−1p ,

E [(M∗N)p]

1p ≤ p

p− 1E [|MN |p]

1p

da cui la tesi.

Esercizio 11 Se τ 1 ≤ τ 2 sono due tempi d’arresto, allora Fτ1 ⊂ Fτ2.

Page 63: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

3.3. TEOREMI D’ARRESTO E DISUGUAGLIANZE 63

3.3.2 Il caso a tempo continuo

Le dimostrazioni che seguono sono basate tutte sulla stessa strategia. Data una mar-tingala (resp. submartingala) M = (Mt)t≥0, dato un tempo T > 0, si considerano gliistanti “diadici”della forma kT

2n, con n ∈ N e k = 0, 1, ..., 2n e si introduce, per ogni

n ∈ N, il processo a tempo discreto

M(n,T )k := M kT

2n, k ∈ N.

Esso è una martingala (resp. submartingala) a tempo discreto, rispetto alla filtrazione(F kT

2n

)k∈N. Ad essa si applicano quindi i risultati precedenti. Bisogna poi eseguire un

passaggio al limite per n → ∞ e per controllare il limite di alcune quantità servonodelle ipotesi di continuità di M . I primi due teoremi necessitano solo della seguenteipotesi:

supt∈[0,T ]

|Mt| = limn→∞

maxk=1,...,2n

∣∣∣M (n,T )k

∣∣∣ . (3.2)

Questa vale ad esempio se ogni (o q.o.) traiettoria diM è continua a destra o a sinistrain ogni punto.

Teorema 11 (disuguaglianza massimale) SiaM una martingala, oppure una sub-martingala positiva, che soddisfa (3.2). Allora, per ogni T > 0, λ > 0, vale

P

(supt∈[0,T ]

|Mt| ≥ λ

)≤ 1

λE [|MT |] .

Proof. Per ogni n ∈ N, introduciamo l’evento

An =

max

k=1,...,2n

∣∣∣M (n,T )k

∣∣∣ ≥ λ

.

Per la disuguaglianza massimale discreta applicata alla submartingala M (n,T )k , vale

P (An) ≤ 1

λE[∣∣∣M (n,T )

2n

∣∣∣] =1

λE [|MT |]

osservando che M (n,T )2n = MT . Gli eventi An sono non decrescenti, quindi P (∪nAn) =

limn→∞ P (An). Preso ε > 0, grazie all’ipotesi (3.2), se supt∈[0,T ] |Mt| = η (o ancor

meglio se supt∈[0,T ] |Mt| ≥ η) allora esiste n tale che maxk=1,...,2n

∣∣∣M (n,T )k

∣∣∣ > η − ε.Preso η = λ+ ε, questo dice che

supt∈[0,T ]

|Mt| ≥ λ+ ε

⊂⋃n∈N

An

Page 64: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

64 CAPITOLO 3. MARTINGALE

quindi

P

(supt∈[0,T ]

|Mt| ≥ λ+ ε

)≤ lim

n→∞P (An) ≤ 1

λE [|MT |] .

I numeri λ, ε > 0 sono arbitrari, quindi abbiamo anche dimostrato che, per ε < λ,

P

(supt∈[0,T ]

|Mt| ≥ λ

)≤ 1

λ− εE [|MT |] .

Pendendo il limite per ε→ 0 si ottiene la tesi. La dimostrazione è completa.

Corollario 4 Dato p ≥ 1, se E [|Mt|p] <∞ per ogni t, allora

P

(supt∈[0,T ]

|Mt| ≥ λ

)≤ 1

λpE [|MT |p] .

Dato θ > 0, se E[eθ|Mt|

]<∞ per ogni t, allora

P

(supt∈[0,T ]

|Mt| ≥ λ

)≤ e−θλE

[eθ|MT |

].

La dimostrazione è identica a quella del Corollario 3.

Teorema 12 (disuguaglianza di Doob) Sia dato p > 1. Se M è una martingala,oppure una submartingala positiva, che soddisfa (3.2) e E [|Mt|p] < ∞ per ogni t,allora, per ogni T > 0, la v.a. supt∈[0,T ] |Mt|p è integrabile e vale

E

[supt∈[0,T ]

|Mt|p]≤(

p

p− 1

)pE [|MT |p] .

Proof. Per ogni n ∈ N, introduciamo la v.a. Xn = maxk=1,...,2n

∣∣∣M (n,T )k

∣∣∣p. Per ladisuguaglianza di Doob discreta applicata alla submartingala M (n,T )

k , vale

E [Xn] ≤(

p

p− 1

)pE [|MT |p] .

La successione di v.a. Xnn∈N è non descrescente e non negativa, quindi, per il teoremadi convergenza monotona,

E[

limn→∞

Xn

]≤(

p

p− 1

)pE [|MT |p] .

Ma la v.a. limn→∞Xn coincide con supt∈[0,T ] |Mt|p per l’ipotesi (3.2). Questo completala dimostrazione.

Page 65: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

3.3. TEOREMI D’ARRESTO E DISUGUAGLIANZE 65

Teorema 13 (d’arresto) Supponiamo che esista p > 1 tale che E [|Mt|p] < ∞ perogni t. Se M è una martingala continua a destra e τ è un tempo d’arresto limitato,allora

E [Mτ ] = E [M0] .

Proof. Per ogni n ∈ N, introduciamo il tempo aleatorio τn : Ω→ [0,∞) così definito:

τn =k + 1

2nse

k

2n< τ ≤ k + 1

2n.

E’un tempo aleatorio:

τn ≤ t =⋃

k, k+12n≤t

τn =

k + 1

2n

=

⋃k, k+1

2n≤t

k

2n< τ ≤ k + 1

2n

∈ Ft.

Inoltre, limn→∞ τn = τ . Infine, esiste un intero N > 0 tale che τn ≤ N per ogni n ∈ N.Per il teorema di arresto discreto,

E [Mτn ] = E [MN ] = E [M0] .

Per la continuità a destra, limn→∞Mτn = Mτ . Inoltre,

|Mτn| ≤ supt∈[0,N ]

|Mt|

che è integrabile per la disuguaglianza di Doob, e quindi, per il teorema di convergenzadominata, limn→∞E [Mτn ] = E [Mτ ]. La dimostrazione è completa.Esistono tante varianti del teorema d’arresto. Ne enunciamo una d’uso pratico nel

caso di processi continui.

Corollario 5 Supponiamo che esista p > 1 tale che E [|Mt|p] <∞ per ogni t. Se M èuna martingala continua, τ è finito e la successione Mτ∧n è uniformemente integrabile(oppure limitata in modulo da una funzione integrabile), allora

E [Mτ ] = E [M0] .

Proof. Consideriamo i tempi d’arresto limitati τ ∧ n al variare di n ∈ N. Vale (per ilteorema di arresto)

E [Mτ∧n] = E [M0]

e limn→∞Mτ∧n = Mτ per la continuità a sinistra. La tesi discende all’uniforme inte-grabilità ed il relativo teorema di passaggio al limite in valore atteso (o dal teoremadi convergenza dominata di Lebesgue, se la successione Mτ∧n è limitata in modulo dauna funzione integrabile). La dimostrazione è completa.

Page 66: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

66 CAPITOLO 3. MARTINGALE

3.4 Applicazioni

3.4.1 Disuguaglianza esponenziale per il moto browniano

Si possono dimostrare le seguenti disuguaglianze, per λ > 0:(λ+

1

λ

)−1

e−λ2

2 ≤∫ ∞λ

e−x2

2 dx ≤ 1

λe−

λ2

2 .

Da quella di destra si ottiene, per ogni T > 0,

P (BT ≥ λ) ≤

Infatti

P (BT ≥ λ) = P(BT/√T ≥ λ/

√T)≤ 1

√T

λe−

λ2

2T .

Trascurando il fattore di fronte all’esponenziale, possiamo dire che la coda della v.a.

BT decade come e−λ2

2T (in realtà decade un po’più velocemente, grazie al fattore chemoltiplica l’esponenziale). La seguente disuguaglianza esponenziale rafforza questorisultato dal punto di vista dell’uniformità nel tempo, o se si vuole stabilisce un risultatosimile per le traiettorie del moto browniano.

Proposizione 31 Sia B un moto browniano. Allora, per ogni λ > 0, vale

P

(supt∈[0,T ]

Bt ≥ λ

)≤ e−λ

2/2T .

P

(supt∈[0,T ]

|Bt| ≥ λ

)≤ 2e−λ

2/2t.

Proof. Per la Proposizione 26, preso θ > 0, il processoMt := eθBt è una submartingalae quindi, per la disuguaglianza massimale,

P

(supt∈[0,T ]

Bt ≥ λ

)= P

(supt∈[0,T ]

eθBt ≥ eθλ

)≤ e−θλE

[eθBt

].

Se X è una v.a. N (0, σ2) si dimostra con un calcolo elementare che E[eθX]

= eθ2σ2

2 .

Pertanto E[eθBt

]= e

θ2t2 . Otteniamo quindi

P

(supt∈[0,T ]

Bt ≥ λ

)≤ inf

θ>0e−θλ+ θ2t

2 = einfθ>0

(θ2t2−θλ

).

Page 67: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

3.4. APPLICAZIONI 67

Per concludere basta osservare che il punto di minimo della parabola θ2t2− θλ si trova

in θ = λt> 0 e vale −λ2

2t.

Infine, osserviamo che −B è ancora un moto browniano, quindi vale

P

(supt∈[0,T ]

(−Bt) ≥ λ

)≤ e−λ

2/2t.

D’altra partesupt∈[0,T ]

|Bt| ≥ λ

supt∈[0,T ]

Bt ≥ λ

⋃supt∈[0,T ]

(−Bt) ≥ λ

per cui passando alle probabilità si ottiene la seconda disuguaglianza della proposizione.

3.4.2 Problema della rovina

Sia B un moto browniano (continuo) e, presi a, b > 0, consideriamo il problemadell’uscita di B dall’intervallo [−a, b].

Osservazione 14 Possiamo immaginare, per aiutare l’intuizione, che Bt + a rappre-senti il patrimonio di un giocatore al tempo t, patrimonio che ammonta al valore a > 0al tempo t = 0, e che b sia la quantità che il giocatore si prefissa di vincere: smetteràdi giocare quanto il suo patrimonio sarà pari ad a+ b, ovvero quando Bt = b. Se però,prima di allora, il suo patrimonio si sarà ridotto a zero (Bt = −a), il giocatore saràcaduto in rovina prima di raggiungere il suo scopo. Questo problema serve a mostrareche la strategia di continuare a giocare fino al momento in cui si raggiunge la vincitadesiderata (che in teoria prima o poi accadrà) si scontra col fatto che si dispone di unpatrimonio iniziale limitato e quindi si può cadere in rovina prima di raggiungere ilsuccesso.

Introduciamo il tempo di ingresso in (−a, b)c, detto anche tempo d’uscita da (−a, b),o primo istante in cui B raggiunge il valore a oppure b:

τa,b = min t ≥ 0 : Bt ∈ (−a, b)c .

Essendo B continuo ed (−a, b)c chiuso, τa,b è un tempo d’arresto.Supponiamo di poter stabilire che τa,b sia finito. Siccome B è continuo e Bt ∈ [−a, b]

per t ≤ τa,b (quindi la successione di v.a.∣∣Bτa,b∧n

∣∣n∈N è equilimitata), possiamo

applicare la versione del teorema d’arresto data dal Corollario 5 ed ottenere

E[Bτa,b

]= E [B0] = 0.

Page 68: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

68 CAPITOLO 3. MARTINGALE

D’altra parte, sempre nell’ipotesi che τa,b sia finito, avremmo

E[Bτa,b

]= E

[Bτa,b1Bτa,b=a

]+ E

[Bτa,b1Bτa,b=b

]= E

[a1Bτa,b=a

]+ E

[b1Bτa,b=b

]= aP

(Bτa,b = a

)+ bP

(Bτa,b = b

)ed anche

P(Bτa,b = a

)+ P

(Bτa,b = b

)= 1.

Quindi avremmo le due relazioni

aP(Bτa,b = a

)+ bP

(Bτa,b = b

)= 0

P(Bτa,b = a

)+ P

(Bτa,b = b

)= 1

da cui dedurremmo

P(Bτa,b = a

)=

b

a− b, P(Bτa,b = b

)=

a

a− b. (3.3)

Proposizione 32 Vale (3.3). Inoltre,

E [τa,b] = aba+ b

a− b.

Proof. Consideriamo il processo

Mt := B2t − t.

E’una martingala (inquadreremo questo fatto più in generale nel seguito):

E [Mt|Fs] = E[B2t |Fs

]− t = E

[(Bt −Bs)

2 |Fs]

+ 2E [BtBs|Fs]− E[B2s |Fs

]− t

= E[(Bt −Bs)

2]+ 2BsE [Bt|Fs]−B2s − t

= t− s+ 2B2s −B2

s − t = B2s − s = Ms.

Preso T > 0, introduciamo il tempo d’arresto limitato τa,b ∧ T . Vale

E[Mτa,b∧T

]= E [M0] = 0

ovveroE [τa,b ∧ T ] = E

[B2τa,b∧T

].

Esiste una costante (il ragionamento è simile a quello fatto sopra) C > 0 tale cheB2τa,b∧T ≤ C, indipendentemente da T , quindi

E [τa,b ∧ T ] ≤ C.

Page 69: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

3.5. TEOREMADI DECOMPOSIZIONEDI DOOBPER SUBMARTINGALEDISCRETE69

Per convergenza monotona, si ottiene E [τa,b] ≤ C e quindi τa,b <∞ quasi certamente.Valgono quindi i calcoli sviluppati sopra, che portano alle formule (3.3).Inoltre, possiamo applicare il Corollario 5 ad M ed ottenere

E[Mτa,b

]= E [M0] = 0.

D’altra parte,

E[Mτa,b

]= E

[Mτa,b1Bτa,b=a

]+ E

[Mτa,b1Bτa,b=b

]= E

[(a2 − τa,b

)1Bτa,b=a

]+ E

[(b2 − τa,b

)1Bτa,b=b

]= a2P

(Bτa,b = a

)+ b2P

(Bτa,b = b

)− E [τa,b] .

da cui

E [τa,b] = a2P(Bτa,b = a

)+ b2P

(Bτa,b = b

)= a2 b

a− b + b2 a

a− b = aba+ b

a− b.

La dimostrazione è completa.

3.5 Teorema di decomposizione di Doob per sub-martingale discrete

Teorema 14 Se X è una submartingala rispetto ad una filtrazione (Fn)n≥0, alloraesistono una martingala M = (Mn)n≥0 ed un processo crescente A = (An)n≥0 tali che

Xn = Mn + An.

Inoltre, An è Fn−1 misurabile, per ogni n.

Proof. Definiamo Mn iterativamente in modo che valga

Mn+1 −Mn = Xn+1 − E [Xn+1|Fn] .

Poniamo ad esempio M0 = 0, M1 = X1 − E [X1|F0], e così via Mn+1 = Mn + Xn+1 −E [Xn+1|Fn].Vale

E [Mn+1 −Mn|Fn] = E [Xn+1 − E [Xn+1|Fn] |Fn]

= E [Xn+1|Fn]− E [Xn+1|Fn] = 0.

Quindi M è una martingala. Il processo

An := Xn −Mn

Page 70: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

70 CAPITOLO 3. MARTINGALE

soddisfa

An+1 = Xn+1 −Mn+1 = E [Xn+1|Fn]−Mn ≥ Xn −Mn = An

quindi è crescente. Inoltre, sempre da qui si vede che An+1 è Fn misurabile. Ladimostrazione è completa.Possiamo finalmente tornare al teorema d’arresto e svincolarci da una limitazione

antipatica per le submartingale.

Corollario 6 Siano X una submartingala discreta e τ 1 ≤ τ 2 due tempi d’arrestolimitati. Allora

E [Xτ2 |Fτ1 ] ≥ Xτ1

ed in particolareE [Xτ2 ] ≥ E [Xτ1 ] .

Proof. Scriviamo X nella forma

Xn = Mn + An

come nel teorema di decomposizione. Allora

E [Xτ2|Fτ1 ] = E [Mτ2|Fτ1 ] + E [Aτ2|Fτ1 ] .

Siccome A è crescente, Aτ2 ≥ Aτ1 (q.c.) e quindi, per la monotonia della speranzacondizionale, E [Aτ2|Fτ1 ] ≥ E [Aτ1 |Fτ1 ]. Essendo poi Aτ1 misurabile rispetto a Fτ1(esercizio 12), vale

E [Aτ2|Fτ1 ] ≥ Aτ1 .

Inoltre,E [Mτ2 |Fτ1 ] = Mτ1

per il risultato d’arresto delle martingale. Quindi

E [Xτ2|Fτ1 ] ≥Mτ1 + Aτ1 = Xτ1 .

L’affermazione E [Xτ2 ] ≥ E [Xτ1 ] discende dalla precedente calcolando il valore attesodi ambo i membri. La dimostrazione è completa.

Esercizio 12 Se X è un processo a tempo discreto e τ un tempo d’arresto finito, alloraXτ misurabile rispetto a Fτ .

Page 71: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

3.6. TEOREMA DI CONVERGENZA PER SUPER-MARTINGALE DISCRETE71

3.6 Teorema di convergenza per super-martingalediscrete

Proviamo ad apprezzare intuitivamente il problema ragionando sulle traiettorie di unamartingala. Abbiamo visto all’inizio del capitolo che gli incrementi sono indipendenti oquasi, e centrati. L’immagine che ci facciamo è quindi di traiettorie altamente oscillanti,con oscillazioni ugualmente distribuite verso l’alto e verso il basso (qui usiamo le parolein modo molto intuitivo); si pensi ad esempio al moto browniano. Il teorema chevedremo in questo paragrafo afferma che, sotto certe ipotesi, esiste finito il limite pert→∞, delle traiettorie (q.c.). Come può questo essere compatibile con le oscillazionisuddette? Le traiettorie browniane sono illimitate sia dall’alto sia dal basso, per t→∞.Ciò che forse ci inganna pensando al moto browniano è la stazionarietà dei suoi

incrementi. Una martingala, invece, può avere incrementi sempre più “piccoli”, alcrescere del tempo. Essi continueranno ad essere quasi indipendenti dal passato, mase sono sempre più piccoli non è assurdo immaginare che le traiettorie abbiano limite;un po’come per la funzione f (t) = 1

tsin t.

3.6.1 Tentativo di euristica

Il teorema che stiamo per esporre è davvero inaspettato, rispetto alla media dei nostriteoremi e la sua dimostrazione non è affatto concettualmente semplice, pur moltosintetica. Proviamo allora ad avvicinarci per gradi con ragionamenti il più possibileplausibili (pur costruiti a posteriori).Prendiamo una submartingala a tempo discreto M = (Mn)n≥0, rispetto ad una

filtrazione (Fn)n≥0:E [Mn+1 −Mn|Fn] ≥ 0

per ogni n ∈ N. L’immagine intuitiva, almeno nel caso delle martingale (che vogliamoincludere nel teorema), è che le sue traiettorie oscillino continuamente, per n → ∞.Un modo di esplorare se abbia limite o meno, per n → ∞, è quello di prendere duegeneriche soglie a < b ed esplorare se le traiettorie “attraversano” l’intervallo [a, b]infinite volte oppure no.

Osservazione 15 Spieghiamo cosa si intende per attraversamento di [a, b] dal bassoverso l’alto, per una successione numerica (xn)n≥0. Analogamente a quanto vedremosotto, poniamo

σ1 = inf n ≥ 0 : xn < a , τ 1 = inf n > σ1 : xn > b

σi+1 = inf n > τn : xn < a , τ i+1 = inf n > σn+1 : xn > b , i ≥ 1

con la convenzione che questi numeri sono infiniti se il corrispondente insieme è vuoto.Se τ 1 <∞, diremo che tra gli istanti σ1 e τ 1 c’è un attraversamento di [a, b] dal basso

Page 72: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

72 CAPITOLO 3. MARTINGALE

verso l’alto; e così via se τ i+1 <∞. La quantità (eventualmente infinita)

γa,b = Card i ≥ 1 : τ i <∞

rappresenta il numero di attraversamenti di [a, b] dal basso verso l’alto.

Osservazione 16 Se il numero di questi attraversamenti è finito, qualsiasi siano a <b, allora esiste limn→∞ xn (finito o infinito). Infatti, il limite limn→∞ xn esiste se esolo se i limiti superiore e inferiore coincidono (eventualmente infiniti); se questo nonè verificato, allora si possono trovare (partendo da due sottosuccessioni che tendonoai limiti estremi) due numeri reali a < b (basta prenderli strettamente contenuti trai due limiti estremi) e due sottosuccessioni nak,

nbktali che xnak < a, xnbk > a,

nak < nbk < nak+1 per ogni k.

Torniamo alla submartingala. Vogliamo capire se gli attraversamenti di un genericointervallo [a, b], dal basso verso l’alto, delle sue traiettorie, sono finiti o infiniti. Poniamo

σ1 (ω) = inf n ≥ 0 : Mn (ω) < aτ 1 (ω) = inf n > σ1 (ω) : Mn (ω) > b

ponendo σ1 (ω) =∞ o τ 1 (ω) =∞ se i relativi insiemi sono vuoti. Poi iterativamenteintroduciamo, per i ≥ 1,

σi+1 (ω) = inf n > τn (ω) : Mn (ω) < aτ i+1 (ω) = inf n > σn+1 (ω) : Mn (ω) > b

sempre con la convenzione suddetta se gli insiemi sono vuoti. La quantità aleatoria, avalori interi non negativi o +∞,

γa,b (ω) = Card i ≥ 1 : τ i (ω) <∞

è il numero di attraversamenti di [a, b] in modo ascendente. Come detto sopra, se èfinita, allora c’è limite, per la realizzazione (Mn (ω))n≥0.Gli istanti σi e τ i sono tempi d’arresto (sono simili agli istanti di primo ingresso,

solo con un vincolo dal basso (es. n > τn nella definizione di σi+1, ma la verifica èidentica, per ricorrenza).

Osservazione 17 Se fossero limitati, avremmo (per il teorema d’arresto)

E [Mτ i ] ≤ E[Mσi+1

].

Questo è impossibile: Mσi+1 < a e Mτ i > b (se σi e τ i sono finiti) quindi

E[Mσi+1

]≤ a < b ≤ E [Mτ i ] .

Page 73: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

3.6. TEOREMA DI CONVERGENZA PER SUPER-MARTINGALE DISCRETE73

Quindi σi+1 e τ i non sono limitati. Per avere il primo attraversamento, per certi ωsi deve aspettare moltissimo. Questo però non è (come invece si potrebbe pensare) unprimo indizio di convergenza: vale anche per il moto browniano, dove la convergenzasicuramente non vale (non basta la proprietà di martingala per garantire la convergenzae per ora abbiamo usato solo questa).

Tronchiamo questi tempi aleatori per poter applicare i risultati d’arresto. Dato unintero positivo T (lo si immagini molto grande), introduciamo i tempi aleatori σi ∧ T ,τ i ∧ T . Fissato T , essi sono tempi d’arresto e sono limitati: i tempi deterministicisono tempi d’arresto, il minimo di due tempi d’arresto è un tempo d’arresto, e sonoovviamente limitati da T . Allora, per il Corollario 6,

E [Mτ i∧T ] ≤ E[Mσi+1∧T

](3.4)

per ogni i. Questo è il primo ingrediente cruciale della dimostrazione.Il secondo parte da una stima per γa,b in termini della martingala. La disuguaglianza

più facile da capire è (non la dimostriamo perché non verrà usata)

γa,b (b− a) ≤∞∑i=1

(Mτ i −Mσi) 1τ i<∞.

Tuttavia, come sopra, dobbiamo lavorare con tempi troncati. Introduciamo allora ilnumero di attraversamenti precedenti a T

γTa,b (ω) = Card i ≥ 1 : τ i (ω) < T

ed osserviamo che

γTa,b (b− a) ≤T∑i=1

(Mτ i∧T −Mσi∧T ) 1τ i<T .

Infatti, se (relativamente ad un certo ω) ci sono esattamente k attraversamenti prece-denti a T , cioè γTa,b = k, per un qualche k = 0, 1, ..., T (si noti che il numero diattraversamenti prima di T è limitato almeno da T , ed in realtà da un numero minoreo uguale a T/2), significa che σ1 < τ 1 < σ2 < ... < τ k < T ≤ τ k+1 (non sappiamoperò dove sta σk+1 rispetto a T ), e quindi (il caso k = 0 va fatto separatamente; loomettiamo)

T∑i=1

(Mτ i∧T −Mσi∧T ) 1τ i<T =k∑i=1

(Mτ i −Mσi) + (MT −Mσi∧T ) 1τk+1<T

≥ k (b− a) = γTa,b (b− a) .

Purtroppo però il termine 1τ i<T produce delle complicazioni più tardi (si pensi al fattoche volgiamo usare la (3.4)). Eppure questo termine è cruciale per cancellare l’addendo

Page 74: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

74 CAPITOLO 3. MARTINGALE

(MT −Mσi∧T ) 1τk+1<T . Un’alternativa è la disuguaglianza

γTa,b (b− a) ≤T∑i=1

(Mτ i∧T −Mσi∧T )− infi=1,...,T

(MT −Mσi∧T )

che si dimostra esattamente come la precedente. Si noti che, se sapessimo che Mn ≥ aper ogni n, allora sarebbe

infi=1,...,T

(MT −Mσi∧T ) ≥ 0

perché, se σi < T allora Mσi∧T < a ≤ MT , mentre se σi ≥ T allora Mσi∧T = MT . Inquesto caso allora avremmo

γTa,b (b− a) ≤T∑i=1

(Mτ i∧T −Mσi∧T ) .

Pertanto, se riusciamo a ricondurci al caso di una submartingala tale che Mn ≥ a perogni n, allora una delle disuguaglianze cruciali si semplifica enormemente. Ma questoè sempre possibile: data una submartingala M e dati a < b, basta introdurre

Man = (Mn − a)+ + a.

Il processo Mn− a è ovviamente una submartingala e quindi lo è anche (Mn − a)+ peril teorema sulle trasformazioni convesse crescenti e quindi anche Ma

n . la submartin-gala Ma

n soddisfa Man ≥ a per ogni n. Inoltre, la quantità γTa,b non varia con queste

trasformazioni. Vale quindi

γTa,b (b− a) ≤T∑i=1

(Ma

τ i∧T −Maσi∧T

). (3.5)

Il terzo ingrediente, che ora forse si può immaginare mettendo insieme i due prece-denti, è la semplice identità

MT −Mσ1∧T =T∑i=1

(Mσi+1∧T −Mτ i∧T +Mτ i∧T −Mσi∧T

)=

T∑i=1

(Mσi+1∧T −Mτ i∧T

)+

T∑i=1

(Mτ i∧T −Mσi∧T ) .

Osserviamo solo, circa la sua validità, cheMσT+1∧T = MT perché non ci possono essereT attraversamenti entro il tempo T . In realtà, vista la (3.5), utilizzeremo l’analogaidentità per il processo Ma.

Page 75: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

3.6. TEOREMA DI CONVERGENZA PER SUPER-MARTINGALE DISCRETE75

Mettendo insieme i tre ingredienti, abbiamo

MaT −Ma

σ1∧T ≥T∑i=1

(Ma

σi+1∧T −Maτ i∧T

)+ γTa,b (b− a)

da cui, ricordando (3.4) (che vale ovviamente anche per Ma),

E [MaT ]− E

[Ma

σ1∧T]≥ E

[γTa,b]

(b− a) .

Non si scordi cheMa non è una martingala, altrimenti avremmo E [MaT ]−E

[Ma

σ1∧T]

=0 che implicherebbe E

[γTa,b]

= 0 (assurdo negli esempi).Possiamo proseguire la dimostrazione così: vale E

[Ma

σ1∧T]≥ E [Ma

0 ] per il teoremadi arresto per submartingale, quindi

E[γTa,b]≤ 1

b− a (E [MaT ]− E [Ma

0 ]) =1

b− a(E[(MT − a)+]− E [(M0 − a)+])

≤ 1

b− aE[(MT − a)+] .

Si arriva alla stessa conclusione senza il teorema di arresto, con la seguente osservazione:

MaT −Ma

σ1∧T ≤ (MT − a)+ .

Questa disuguaglianza è ovvia se σ1 ≥ T , mentre se σ1 < T vale perché

MaT −Ma

σ1∧T = MaT −Ma

σ1= (MT − a)+ + a− (Mσ1 − a)+ + a ≤ (MT − a)+ .

A questo punto abbiamo dimostrato una stima per il numero medio di attraversa-menti, prima di un tempo T qualsiasi. La stima non dipende da T e quindi è intu-itivamente plausibile che si deduca che il numero di attraversamenti è finito. Bisognapoi escludere la possibilità di limite infinito, se vogliamo un teorema sulla convergenza.Nel prossimo paragrafo sistemiamo tutti questi i dettagli.

3.6.2 Risultati rigorosi

Siano γa,b e γTa,b le grandezze aleatorie definite nella sottosezione precedente: numero

di attraversamenti in salita di [a, b] e numero prima del tempo T .

Lemma 4 Se M = (Mn)n≥0 è una submartingala a tempo discreto, allora per ognia < b e T > 0 intero vale

E[γTa,b]≤ 1

b− aE[(MT − a)+]

E[γa,b]≤ 1

b− a supn∈N

E[(Mn − a)+] .

Page 76: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

76 CAPITOLO 3. MARTINGALE

Proof. La dimostrazione della prima disuguaglianza illustrata al paragrafo prece-dente è completa. Volendo sintetizzare a posteriori i suoi passi, senza le discussioniintermedie:

• si introduce la submartingala ausiliariaMa = (Mn − a)+ +a e si verifica che vale

γTa,b (b− a) ≤T∑i=1

(Ma

τ i∧T −Maσi∧T

)• si osserva che vale la semplice l’identità

MaT −Ma

σ1∧T =T∑i=1

(Ma

σi+1∧T −Maτ i∧T

)+

T∑i=1

(Ma

τ i∧T −Maσi∧T

)da cui si deduce

MaT −Ma

σ1∧T ≥T∑i=1

(Ma

σi+1∧T −Maτ i∧T

)+ γTa,b (b− a)

• usando il teorema d’arresto si deduce

E[γTa,b]≤ 1

b− a(E [Ma

T ]− E[Ma

σ1∧T])

• ed infine si conclude osservando che MaT −Ma

σ1∧T ≤ (MT − a)+.

La stima perE[γa,b]discende dalla precedente e dal teorema di convergenza monotona,

visto che γa,b = limn→∞ γna,b, e che E

[γTa,b]≤ 1

b−a supn∈N E[(Mn − a)+] per ogni T > 0.

La dimostrazione è completa.

Teorema 15 Se M = (Mn)n≥0 è una submartingala a tempo discreto tale che

supn∈N

E[M+

n

]<∞

allora la successione (Mn (ω))n≥0 converge q.c., per n→∞.

Proof. Per il lemma, γa,b <∞ q.c., per ogni a < b prefissati. Ne discende subito che

P(γa,b <∞,∀a < b, a, b ∈ Q

)= 1.

E’un facile esercizio verificare che l’affermazione γa,b < ∞, ∀a < b, a, b ∈ Q implical’affermazione γa,b <∞, ∀a < b, a, b ∈ R. Quindi

P(γa,b <∞,∀a < b

)= 1.

Page 77: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

3.6. TEOREMA DI CONVERGENZA PER SUPER-MARTINGALE DISCRETE77

Abbiamo già dimostrato (osservazione 16) che se vale γa,b (ω) < ∞, ∀a < b, alloraesiste limn→∞ Mn (ω). Resta quindi solo da dimostrare che tale limite è finito, q.c.

Ricordiamo il lemma di Fatou: E[lim infn→∞

Xn

]≤ lim inf

n→∞E [Xn], ad esempio se le v.a.

Xn sono non negative (si accetta il caso di valori infiniti, ad esempio di lim infn→∞

Xn).

AlloraE[

limn→∞

|Mn|]≤ lim inf

n→∞E [|Mn|] ≤ sup

n∈NE [|Mn|] .

Se avessimo ipotizzato supn∈NE [|Mn|] <∞, concluderemmo subito: dedurremmo chelimn→∞ |Mn| < ∞ q.c., come volevamo. Questa condizione però discende dall’ipotesidel teorema, usando nuovamente la proprietà di submartingala: siccome |x| = 2x+− xper ogni numero reale x, abbiamo

E [|Mn|] = 2E[M+

n

]− E [Mn] ≤ 2E

[M+

n

]− E [M0] ≤ 2 sup

n∈NE[M+

n

]− E [M0]

da cui supn∈NE [|Mn|] <∞. La dimostrazione è completa.I seguenti corollari sono immediati.

Corollario 7 Se per una martingala (o sub o super martingala) M esiste una costanteC > 0 tale che E [|Mn|] ≤ C per ogni n, allora Mn converge.

Corollario 8 Una martingala (o super martingala) positiva converge.

Vediamo un teorema sulle martingale chiuse a tempo discreto.

Corollario 9 Teorema 16 Data una v.a. X integrabile ed una filtrazione (Fn)n≥0,il processo Mn = E [X|Fn] è una martingala, vale E [|Mn|] ≤ E [|X|] e quindi Mn

converge. Inoltre, il limite è E [X|F∞] dove F∞ = ∨nFn. In particolare E [X|Fn]converge ad X se X è F∞-misurabile.

Proof. Abbiamo già dimostrato che M è una martingala, esempio 3. Lì avevamo giàosservato che

E [|Mn|] ≤ E [E [|X| |Fn]] = E [|X|]quindi l’ipotesi del Corollario 7 è soddisfatta. Ne discende che Mn converge q.c.Indichiamo con Z il suo limite.Per dimostrare in totale generalità che Z = E [X|F∞] dovremmo usare il concetto

di uniforme integrabilità ed alcune verifiche supplementari, che omettiamo. Per sem-plicità, limitiamoci a dimostrare l’ultima parte del teorema nel caso in cui X sia diquadrato integrabile: E [X2] <∞. Vale come sopra

E[M2

n

]≤ E

[E[X2|Fn

]]= E

[X2]

fatto che useremo tra un momento.

Page 78: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

78 CAPITOLO 3. MARTINGALE

Dobbiamo dimostrare che Z = E [X|F∞]. Usiamo la definizione di speranza con-dizionale. Innanzi tutto, Z è F∞-misurabile. Infatti, Mn è Fn e quindi F∞-misurabile,e Z è limite quasi certo di Mn. Ora basta verificare che E [Z1A] = E [X1A] perogni A ∈ F∞. E’ suffi ciente dimostrarlo per ogni A appartenente ad una base diF∞. Il fatto che basti verificarlo per una base è molto simile al ragionamento fattoin un’altra occasione, per l’indipendenza tra σ-algebre, che non riportiamo (l’idea èconsiderare l’insieme degli eventi A ∈ F tali che E [Z1A] = E [X1A] e mostrare che èuna σ-algebra).Sia A la famiglia

⋃n

Fn, che non è una σ-algebra (non è F∞). E’però una base di

F∞. Prendiamo A ∈ A, precisamente A ∈ Fn0 per un certo n0. Vale E[(Mn1A)2] ≤

E [M2n] ≤ E [X2], e Mn1A → Z1A q.c., quindi per un teorema di Vitali possiamo

passare al limite sotto il segno di valore atteso: E [Mn1A]→ E [Z1A]. Pertanto

E [Z1A] = limn→∞

E [Mn1A] = limn→∞

E [E [X|Fn] 1A] = limn→∞

E [E [1AX|Fn]]

= limn→∞

E [1AX] = E [1AX] .

Abbiamo usato, al terzo passaggio, il fatto che nel calcolo del limite bastano i valoridi n maggiori di n0 e per essi 1A è Fn-misurabile (in quanto Fn0-misurabile). Ladimostrazione è completa.

3.7 Altri risultati per martingale a tempo continuo

Avendo dimostrato in grande dettaglio le affermazioni precedenti, per non appesantirela trattazione ci limitiamo qui ad un elenco di enunciati. Alcuni sono facili esercizi,altri meno. Supponiamo completo lo spazio di probabilità (Ω,F , P ).

Teorema 17 Sia D ⊂ [0,∞) un insieme numerabile denso. Sia M = (Mt)t∈D unasubmartingala rispetto ad una filtrazione (Ft)t∈D. Supponiamo

supt∈D

E [|Mt|] <∞.

Allora, su un insieme di probabilità uno, esistono finiti il limite per t→∞ ed i limitidestro e sinistro per t→ t0 in ogni punto t0 (t ∈ D).

Teorema 18 Sia M = (Mt)t≥0 una submartingala continua a destra. Supponiamo

supt∈D

E [|Mt|] <∞.

Allora, q.c., esistono finiti il limite per t→∞ ed i limiti sinistri in ogni punto t0.

Page 79: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

3.8. MARTINGALE LOCALI E SEMIMARTINGALE 79

Teorema 19 Sia M = (Mt)t≥0 una martingala rispetto ad una filtrazione (Ft)t≥0 chesoddisfi le condizioni abituali. Allora esiste una modificazione càdlàg diM , che è ancorauna martingala.

Teorema 20 Sia M = (Mt)t≥0 una martingala continua a destra, rispetto ad unafiltrazione (Ft)t≥0, e τ 1 ≤ τ 2 due tempi d’arresto limitati. Allora

E [Mτ2|Fτ1 ] = Mτ1 .

Se τ è un tempo d’arresto q.c. finito (non necessariamente limitato), allora (Mt∧τ )t≥0

è una martingala rispetto a (Ft)t≥0.

Ricordiamo che, se (Mt)t≥0 una martingala continua e di quadrato integrabile, allora(M2

t )t≥0 è una submartingala. Nell’ottica del teorema di decomposizione di Doob vistosopra nel caso discreto, ci chiediamo se M2

t si decomponga. Il processo crescente Atche ne emerge, è di fondamentale importanza, che ricorda il concetto di variazionequadratica.

Teorema 21 Sia (Mt)t≥0 una martingala continua e di quadrato integrabile, rispettoa (Ft)t≥0; si supponga che (Ft)t≥0 sia completa. Allora vale la decomposizione

M2t = Nt + At

dove (Nt)t≥0 è una martingala continua ed (At)t≥0 è un processo crescente continuo,con A0 = 0. La decomposizione è unica e vale, in probabilità,

At = lim|πk|→0

nk−1∑i=0

∣∣Mti+1 −Mti

∣∣2dove πkk∈N è una successione di partizioni di [0, t] della forma πk = 0 = t0 < t1 < ... < tnk = t.

3.8 Martingale locali e semimartingale

Abbiamo visto sopra che se M = (Mt)t≥0 è una martingala continua a destra, rispettoad una filtrazione (Ft)t≥0, e τ è un tempo d’arresto q.c. finito, allora (Mt∧τ )t≥0 è unamartingala rispetto a (Ft)t≥0. Questo risultato dà lo spunto per una nuova definizione.Diciamo che un processo (Mt)t≥0 è una martingala locale rispetto a (Ft)t≥0 se esiste

una successione crescente τnn∈N di tempi d’arresto, con limn→∞ τn = +∞, tale che(Mt∧τn)t≥0 è una martingala rispetto a (Ft)t≥0, per ogni n ∈ N. Diciamo che i tempiτn riducono M .Una martingala è una martingala locale (τn = +∞ per ogni n). Per noi l’interesse

maggiore per questo concetto risiederà nel fatto che gli integrali stocastici di processiabbastanza generali sono martingale locali, ma non sempre martingale. Un esempiomolto particolare di questa situazione è il seguente, che comunque illustra un’ideagenerale, quella di troncamento o localizzazione.

Page 80: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

80 CAPITOLO 3. MARTINGALE

Esempio 4 Sia B un moto browniano rispetto a (Ft)t≥0 e sia X0 una v.a. F0-misurabile. Poniamo

Mt = X0Wt.

Se ipotizziamo che X0 sia di quadrato integrabile, o in questo semplice esempio anchesolo integrabile, allora Mt è integrabile perché prodotto di v.a. indipendenti integrabili,e vale

E [X0Wt|Fs] = X0E [Wt|Fs] = X0Ws

cioè Mt è una martingala. Se invece non supponiamo alcuna integrabilità di X0, Mt

non sarà in generale integrabile e quindi non possiamo porci il problema se sia o menouna martingala. Introduciamo però il tempo aleatorio

τn =

∞ se |X0| ≤ n0 se |X0| > n

.

E’un tempo d’arresto:

τn ≤ t = (τn ≤ t ∩ |X0| ≤ n) ∪ (τn ≤ t ∩ |X0| > n)= ∅ ∪ |X0| > n ∈ F0 ⊂ Ft

per ogni t ≥ 0. Inoltre, τn →∞ q.c. Infine,

Mt∧τn = X0Wt∧τn =

X0Wt se |X0| ≤ n

0 se |X0| > n

quindiMt∧τn = X01|X0|≤nWt.

Il processo Mt∧τn è quindi una martingala, perché della forma Y0Wt con Y0 integrabile.

Diciamo per brevità che un processo è a variazione limitata se q.c. le sue traiettoriehanno variazione limitata su ogni intervallo finito.Diciamo infine che un processo (Xt)t≥0 è una semimartingala rispetto a (Ft)t≥0 se è

la somma di una martingala locale e di un processo adattato a variazione limitata. Inbase ad uno dei risultati precedenti, un importante esempio di semimartingala è M2

t ,dove M è una martingala continua. Vedremo più in generale nel seguito che anchef (Mt) con f ∈ C2 è una semimartingala, ed ancor più in generale vedremo che se Xè una semimartingala continua, allora lo è anche f (Xt) con f ∈ C2. Per questa edaltre ragioni, la classe delle semimartingale è in un certo senso chiusa per il cosiddettocalcolo stocastico, contiene gli oggetti di maggior interesse (moto browniano, integralistocastici) e quindi è la classe privilegiata in cui svolgere il calcolo.Si può dimostrare il seguente risultato. Diciamo che una semimartingala è continua

se è somma di una martingala locale continua e di un processo continuo a variazionelimitata.

Page 81: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

3.8. MARTINGALE LOCALI E SEMIMARTINGALE 81

Teorema 22 Sia (Xt)t≥0 una semimartingala continua. La decomposizione in mar-tingala locale e processo a variazione limitata è unica. Dato t e data una successioneπkk∈N di partizioni di [0, t] della forma πk = 0 = t0 < t1 < ... < tnk = t, esistonoin probabilità i seguenti limiti e coincidono

lim|πk|→0

nk−1∑i=0

∣∣Xti+1 −Xti

∣∣2 = lim|πk|→0

nk−1∑i=0

∣∣Mti+1 −Mti

∣∣2 .La grandezza

〈X〉t = P − lim|πk|→0

nk−1∑i=0

∣∣Xti+1 −Xti

∣∣2è detta variazione quadratica di X su [0, t].

Non vedremo la dimostrazione nel suo complesso ed in totale generalità, ma si-curamente esamineremo alcune classi di processi (definiti tramite integrali stocastici)per cui alcune di queste affermazioni saranno dimostrate. Già conosciamo una primaclasse: i processi della forma

Xt = Bt + Vt

dove B è un moto browniano e V è un processo continuo a variazione limitata. Infatti,per B abbiamo dimostrato che esiste la variazione quadratica (anche come limite in me-dia quadratica) e, sempre nel capitolo del moto browniano, abbiamo visto che una fun-zione f continua a variazione limitata ha la proprietà lim|πk|→0

∑nk−1i=0 |f (ti+1)− f (ti)|2 =

0, quindi per V esiste lim|πk|→0

∑nk−1i=0

∣∣Vti+1 − Vti∣∣2 quasi certamente (quindi anche inprobabilità), e vale zero.Per la stessa ragione, la coincidenza dei due limiti nel teorema è un fatto ovvio, non

appena uno dei due esiste. Quello che è un po’laborioso è mostrare che esiste 〈M〉t perogni martingala locale continua. Ci accontentiamo di saperlo per il moto browniano e,come vedremo, per gli integrali stocastici.La grandezza 〈X〉t caratterizza molte proprietà del processo X. Si presti attenzione

a questo fatto quando sarà il momento.

Page 82: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

82 CAPITOLO 3. MARTINGALE

Page 83: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

Capitolo 4

L’integrale stocastico

4.1 Integrale di processi elementari

Lo scopo di questo capitolo è quello di definire ed esaminare un integrale del tipo∫ b

a

XtdBt

dove B è un moto browniano ed X un processo, soggetto ad opportune ipotesi (manon più regolare di B, altrimenti la teoria non sarebbe applicabile alle equazionistocastiche).Nel capitolo sul moto browniano abbiamo già discusso le diffi coltà che si incontrano

a tentare di definire tale integrale usando concetti classici, come l’integrale di Lebesgue-Stieltjes. Vediamo come K. Itô, nei primi anni quaranta, ha risolto questo problema.Usiamo le notazioni già introdotte nel capitolo delle martingale. Sia B = (Bt)t≥0 un

moto browniano rispetto ad una filtrazione (Ft)t≥0. Chiamiamo processo elementareogni processo stocastico X = (Xt)t≥0 adattato a (Ft)t≥0 ma costante a tratti relati-vamente ad una sequenza di tempi tn ≥ tn−1 ≥ ... ≥ t1 = 0, cioè ogni processo dellaforma

Xt =

n−1∑i=1

Xti1[ti,ti+1) (t) , Xti misurabile rispetto a Fti .

Se in più richiediamoE[X2ti

]<∞ per ogni i = 1, ..., n

allora lo diremo di quadrato integrabile.Per ogni b ≥ a ≥ 0, poniamo∫ b

a

XsdBs =n−1∑i=1

Xti

(B(a∨ti+1)∧b −B(a∨ti)∧b

).

83

Page 84: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

84 CAPITOLO 4. L’INTEGRALE STOCASTICO

Come già osservato in quel capitolo, siccome le espressioni (a ∨ ti+1)∧b e (a ∨ ti)∧bsono troppo laboriose, si può adottare la seguente convenzione. Fissati b ≥ a ≥ 0, si puòarricchire la sequenza di tempi considerando la nuova sequenza t′n+2 ≥ t′n−1 ≥ ... ≥ t′1 =

0 formata dai tempi ti e da a, b, e riscrivendo Xt nella forma Xt =∑n+1

i=1 X′t′i

1[t′i,t′i+1) (t)

con le v.a. X ′t′i misurabili rispetto a Ft′i così definite: se t′i = tj ∈ t1, ..., tn, poniamo

X ′t′i= Xtj ; se t

′i = a (risp. t′i = b) e tj ∈ t1, ..., tn è il più grande con la proprietà

tj ≤ a (risp. tj ≤ b), allora poniamo X ′t′i = Xtj .Qui, per semplicità di notazione, indichiamo la nuova sequenza ancora con tn ≥

tn−1 ≥ ... ≥ t1 = 0; oppure, se si vuole, fissati b ≥ a ≥ 0, si considerano solo quellesequenze tn ≥ tn−1 ≥ ... ≥ t1 = 0 che contengono a e b (una terza strategia è diconsiderare suddivisioni dell’intervallo [a, b] solamente, invece che processi definiti pertutti i t ≥ 0).Poniamo allora ∫ b

a

XsdBs =∑

a≤ti≤ti+1≤b

Xti

(Bti+1 −Bti

).

Con un po’di pazienza si può riconoscere che le due definizioni ora scritte di∫ baXsdBs

coincidono. Possiamo anche introdurre l’insieme di indici

Ja,b = i = 1, ..., n : a ≤ ti ≤ ti+1 ≤ b

e scrivere ∫ b

a

XsdBs =∑i∈Ja,b

Xti

(Bti+1 −Bti

).

Dati c ≥ b ≥ a, si può verificare con pazienza che vale∫ c

a

XsdBs =

∫ b

a

XsdBs +

∫ c

b

XsdBs

(omettiamo i dettagli). Il risultato forse più importante di questo inizio di teoria è ilseguente. La seconda identità è detta a volte formula di isometria.

Proposizione 33 Sia X un processo elementare di quadrato integrabile. Allora la v.a.∫ baXsdBs ha media e varianza finite e vale

E

[∫ b

a

XsdBs

]= 0

E

[(∫ b

a

XsdBs

)2]

=

∫ b

a

E[X2s

]ds.

Page 85: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

4.1. INTEGRALE DI PROCESSI ELEMENTARI 85

Proof. Ricordiamo che, date due v.a. X, Y indipendenti e integrabili, il loro prodottoXY è integrabile e vale E [XY ] = E [X]E [Y ]. Ciascun addendo Xti

(Bti+1 −Bti

)che

compone∫ baXsdBs è di tale forma, perché Bti+1 − Bti è indipendente da Fti ed Xti è

Fti-misurabile, quindi∫ baXsdBs è integrabile, e vale

E

[∫ b

a

XsdBs

]=∑i∈Ja,b

E[Xti

(Bti+1 −Bti

)]=∑i∈Ja,b

E [Xti ]E[Bti+1 −Bti

]= 0

in quanto gli incrementi browniani hanno attesa nulla.Vale poi, con la notazione ∆iB = Bti+1 −Bti ,(∫ b

a

XsdBs

)2

=∑i∈Ja,b

∑j∈Ja,b

XtiXtj∆iB∆jB =∑i∈Ja,b

X2ti

(∆iB)2+2∑

i,j∈Ja,b,i<jXtiXtj∆iB∆jB.

Gli addendi X2ti

(∆iB)2 sono integrabili perché X2tie (∆iB)2 sono indipendenti (trasfor-

mazioni di v.a. indipendenti) ed integrabili (X2tiper ipotesi, (∆iB)2 perché gli in-

crementi browniani hanno tutti i momenti finiti). Esaminiamo l’integrabilità degliaddendi XtiXtj∆iB∆jB. Le v.a. Xti e ∆iB sono indipendenti, quindi anche X2

tie

(∆iB)2, che sono integrabili, quindi Xti∆iB è di quadrato integrabile. Anche Xtj èdi quadrato integrabile, quindi XtiXtj∆iB è integrabile, essendo prodotto di v.a. diquadrato integrabile. Siccome XtiXtj∆iB è indipendente da ∆jB (come spiegheremotra un attimo), allora XtiXtj∆iB∆jB è integrabile. Questo completa la verifica che(∫ b

aXsdBs

)2

è integrabile. L’indipendenza tra XtiXtj∆iB e ∆jB si spiega così: la v.a.

∆jB è indipendente da Ftj ed XtiXtj∆iB è Ftj -misurabile (Xti è Fti-misurabile, quin-di Ftj -misurabile perché i < j, ∆iB è Fti+1-misurabile, quindi Ftj -misurabile perchéi+ 1 ≤ j).Usando questi stessi fatti, vale

E

[(∫ b

a

XsdBs

)2]

=∑i∈Ja,b

E[X2ti

]E[(∆iB)2]+ 2

∑i,j∈Ja,b,i<j

E[XtiXtj∆iB

]E [∆jB]

=∑i∈Ja,b

E[X2ti

](ti+1 − ti) =

∫ b

a

E[X2s

]ds.

Abbiamo usato anche le proprietà E[(∆iB)2] = ti+1 − ti, E [∆jB] = 0. Si osservi che∫ b

a

E[X2s

]ds =

∑i∈Ja,b

∫ ti+1

ti

E[X2s

]ds =

∑i∈Ja,b

E[X2ti

](ti+1 − ti) .

La dimostrazione è completa.Vale in realtà una versione rafforzata del risultato precedente:

Page 86: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

86 CAPITOLO 4. L’INTEGRALE STOCASTICO

Proposizione 34 Sia X un processo elementare di quadrato integrabile. Allora

E

[∫ t

s

XudBu|Fs]

= 0

E

[(∫ t

s

XudBu

)2∣∣∣∣∣Fs

]= E

[∫ t

s

X2udu

∣∣∣∣Fs] .Proof. Sappiamo già che

∫ tsXudBu e

(∫ tsXudBu

)2

sono integrabili. Vale

E

[∫ t

s

XudBu|Fs]

=∑i∈Js,t

E [Xti∆iB|Fs]

ma, contrariamente a varie situazioni apparentemente simili, non possiamo ad esempioportare Xti fuori dalla speranza condizionale, perché ti è più grande di s. Se peròriscriviamo

E [Xti∆iB|Fs] = E [E [Xti∆iB|Fti ] |Fs]allora vale

E [Xti∆iB|Fs] = E [XtiE [∆iB|Fti ] |Fs] = E [XtiE [∆iB] |Fs] = 0

dove abbiamo usato il fatto che ∆iB è indipendente da Fti ed è centrato. QuindiE[∫ t

sXudBu|Fs

]= 0.

Sappiamo poi già che vale(∫ t

s

XudBu

)2

=∑i∈Js,t

X2ti

(∆iB)2 + 2∑

i,j∈Js,t,i<jXtiXtj∆iB∆jB.

Allora, usando lo stesso trucco e le solite proprietà si ottiene

E

[(∫ t

s

XudBu

)2∣∣∣∣∣Fs

]=

∑i∈Js,t

E[X2ti

(∆iB)2 |Fs]

+ 2∑

i,j∈Js,t,i<jE[XtiXtj∆iB∆jB|Fs

]=

∑i∈Js,t

E[E[X2ti

(∆iB)2 |Fti]|Fs]

+ 2∑

i,j∈Js,t,i<jE[E[XtiXtj∆iB∆jB|Ftj

]|Fs]

=∑i∈Js,t

E[X2tiE[(∆iB)2] |Fs]+ 2

∑i,j∈Js,t,i<j

E[XtiXtj∆iBE [∆jB] |Fs

]=

∑i∈Js,t

E[X2ti|Fs]

(ti+1 − ti) = E

∑i∈Js,t

X2ti

(ti+1 − ti) |Fs

da cui la tesi. La dimostrazione è completa.La prima parte del seguente corollario era già stata dimostrata, in modo un po’

diverso, nel capitolo delle martingale.

Page 87: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

4.1. INTEGRALE DI PROCESSI ELEMENTARI 87

Corollario 10 Sia X un processo elementare di quadrato integrabile. Allora Mt =∫ t0XsdBs è una martingala rispetto a (Ft)t≥0. Inoltre, M

2t −∫ t

0X2udu è una martingala

rispetto a (Ft)t≥0.

Proof. E’adattato perché, ad ogni istante t ≥ 0,∫ t

0XsdBs è somma di v.a. Ft-

misurabili. E’integrabile. Vale poi, ricordando che per t ≥ s ≥ 0 abbiamo∫ t

0XudBu =∫ s

0XudBu +

∫ tsXudBu,

E [Mt −Ms|Fs] = E

[∫ t

s

XudBu, |Fs]

= 0.

Quindi M è una martingala.Per ragioni simili, anche M2

t −∫ t

0X2udu è adattato. M

2t è integrabile.

∫ t0X2udu è

integrabile perché (per il teorema di Fubini)

E

[∫ t

0

X2udu

]=

∫ t

0

E[X2u

]du <∞.

Vale poi

E

[M2

t −∫ t

0

X2udu|Fs

]= E

[(Mt −Ms)

2 −∫ t

s

X2udu|Fs

]+E

[2MtMs −M2

s −∫ s

0

X2udu|Fs

]= 2MsE [Mt|Fs]−M2

s −∫ s

0

X2udu = M2

s −∫ s

0

X2udu

quindi M2t −

∫ t0X2udu è una martingala. La dimostrazione è completa.

Con un linguaggio introdotto al termine del capitolo sulle martingale, si può direche

∫ t0X2udu è il processo crescente associato alla submartigala M

2t . Elenchiamo a

questo proposito alcune situazioni viste fino ad ora.

1. Se Mn è una martingala a tempo discreto, di quadrato integrabile, allora perla sub-martigala M2

n vale la decomposizione di Doob M2n = Nn + An, dove An

è crescente. Quindi esiste un processo crescente An tale che M2n − An è una

martingala.

2. Se B è un moto browniano, allora B2t −t è una martingala (facile esercizio oppure

caso particolare del Corollario 10). Il processo At = t è crescente.

3. Se X è un processo elementare di quadrato integrabile ed introduciamo la mar-tingala Mt =

∫ t0XsdBs, allora M2

t −∫ t

0X2udu è una martingala (e At =

∫ t0X2udu

è un processo crescente).

4. In generale abbiamo enunciato un teorema che afferma che, seM è una martingalacontinua, di quadrato integrabile, allora esiste un processo crescente At tale cheM2

t − At è una martingala.

Page 88: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

88 CAPITOLO 4. L’INTEGRALE STOCASTICO

4.1.1 Estensione a integratori martingale

Proviamo ad estendere la teoria precedente al caso dell’integrale del tipo∫ baXtdMt

dove M è una martingala rispetto ad una filtrazione (Ft)t≥0.Supponiamo che X sia una processo elementare limitato, cioè della forma Xt =∑n−1i=1 Xti1[ti,ti+1) (t) dove le v.a. Xti , Fti-misurabili, sono limitate. Supponiamo che la

sequenza tn ≥ tn−1 ≥ ... ≥ t1 = 0 contenga b ≥ a ≥ 0 e poniamo∫ b

a

XtdMt =∑i∈Ja,b

Xti

(Mti+1 −Mti

).

Supponiamo inoltre che la martingala sia continua e di quadrato integrabile. Pertantoesiste uno ed un solo processo crescente At tale che M2

t − At sia una martingala (senon si vuole usare tale teorema, dal momento che non è stato dimostrato, si prendal’esistenza di At come un’ipotesi sulla martingala M). Vale quindi

E[(Mt −Ms)

2 − (At − As) |Fs]

= E[M2

t − At|Fs]− 2MsE [Mt|Fs] +M2

s + As

= M2s − As − 2M2

s +M2s + As = 0

ovveroE[(Mt −Ms)

2 |Fs]

= E [(At − As) |Fs] .

Proposizione 35 La v.a.∫ tsXudMu è di quadrato integrabile e vale

E

[∫ t

s

XudMu

∣∣∣∣Fs] = 0

E

[(∫ t

s

XudMu

)2∣∣∣∣∣Fs

]= E

[∫ t

s

X2udAu

∣∣∣∣Fs] .Proof. Dalla formula(∫ t

s

XudMu

)2

=∑i∈Js,t

X2ti

(∆iM)2 + 2∑

i,j∈Js,t,i<jXtiXtj∆iM∆jM

si vede che(∫ t

sXudMu

)2

è integrabile (le Xti sono limitate). Allora, usando le soliteproprietà della speranza condizionale e la proprietà di martingala per M , vale

E

[∫ t

s

XudMu

∣∣∣∣Fs] =∑i∈Js,t

E [Xti∆iM |Fs] =∑i∈Js,t

E [E [Xti∆iM |Fti ] |Fs]

=∑i∈Js,t

E [XtiE [∆iM |Fti ] |Fs] = 0

Page 89: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

4.2. INTEGRALEDI PROCESSI PROGRESSIVAMENTEMISURABILI, DI QUADRATO INTEGRABILE89

(in quanto E [∆iM |Fti ] = 0) ed analogamente

E

[(∫ t

s

XudMu

)2∣∣∣∣∣Fs

]=

∑i∈Js,t

E[X2ti

(∆iM)2 |Fs]

+ 2∑

i,j∈Js,t,i<jE[XtiXtj∆iM∆jM |Fs

]=

∑i∈Js,t

E[E[X2ti

(∆iM)2 |Fti]|Fs]

+ 2∑

i,j∈Js,t,i<jE[E[XtiXtj∆iM∆jM |Ftj

]|Fs]

=∑i∈Js,t

E[X2tiE[(∆iM)2 |Fti

]|Fs]

+ 2∑

i,j∈Js,t,i<jE[XtiXtj∆iME

[∆jM |Ftj

]|Fs]

=∑i∈Js,t

E[X2ti|Fs] (Ati+1 − Ati

)= E

∑i∈Js,t

X2ti

(Ati+1 − Ati

)|Fs

da cui la tesi. La dimostrazione è completa.

4.2 Integrale di processi progressivamente misura-bili, di quadrato integrabile

Sia B = (Bt)t≥0 un moto browniano rispetto ad una filtrazione (Ft)t≥0. Dati b ≥ a ≥0, diciamo che un processo X = (Xt)t≥0 è di classe M

2B (a, b) se è progressivamente

misurabile e vale

E

[∫ b

a

X2t dt

]<∞.

Per dare questa definizione basterebbe che il processo fosse definito e progressivamentemisurabile su [a, b]. I processi elementari, cioè della formaXt =

∑n−1i=1 Xti1[ti,ti+1) (t) con

Xti misurabile rispetto a Fti , sono progressivamente misurabili; sono di classeM2B (a, b)

se e solo se sono di quadrato integrabile su [a, b], cioè E[X2ti

]< ∞ per ogni i ∈ Ja,b,

in quanto

E

[∫ b

a

X2t dt

]=∑i∈Ja,b

E[X2ti

](ti+1 − ti) .

Si potrebbe anche dire che M2B (a, b) è la famiglia delle classi di equivalenza dei

processi suddetti, identificando processi X,X ′ tali che E[∫ b

a(Xt −X ′t)

2 dt]

= 0; lo

spazio M2B (a, b) con il prodotto scalare 〈X,X ′〉 = E

[∫ baXtX

′tdt]risulterebbe uno

spazio di Hilbert. Non useremo esplicitamente queste convenzioni e questi fatti.

Teorema 23 Se X è di classe M2B (a, b), allora esiste una successione di processi

elementari X(n), anch’essi di classe M2B (a, b), tale che

limn→∞

E

[∫ b

a

(Xt −X(n)

t

)2

dt

]= 0. (4.1)

Page 90: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

90 CAPITOLO 4. L’INTEGRALE STOCASTICO

Esiste anche una successione di processi continui X(n), di classeM2B (a, b), che converge

ad X nel senso (4.1).

La dimostrazione è piuttosto laboriosa anche se sostanzialmente elementare. Bisognaprima dimostrare che X si può approssimare con processi continui adattati, poi che unprocesso continuo e adattato si può approssimare con processi costanti a tratti adattati.La prima cosa si fa tramite convoluzione con mollificatori unilaterali (cioè che integra-no solo la parte di processo precedente all’istante in cui si calcola la convoluzione).La seconda si fa semplicemente prendendo il valore del processo continuo nell’estremosinistro di ogni intervallino di una partizione, sempre più fine. Vanno però verificatenumerose proprietà, anche un po’laboriose, per cui omettiamo i dettagli, anche perchésimili a quelli di tante dimostrazioni di Analisi relative ai più svariati spazi di funzioni.Vediamo invece le conseguenze di questo teorema.

Proposizione 36 Se X(n) è una successione di processi elementari di classe M2B (a, b)

che converge ad un processo X di classe M2B (a, b) nel senso (4.1), allora la successione

di v.a. ∫ b

a

X(n)t dBt

è di Cauchy in L2 (Ω,F , P ). Il suo limite, elemento di L2 (Ω,F , P ), dipende solo daX (non dalla successione scelta) e verrà indicato con

∫ baXtdBt, detto integrale di Itô

di X.

Proof. Per la formula di isometria dimostrata per i processi elementari, vale

E

[(∫ b

a

(X

(n)t −X

(m)t

)dBt

)2]

=

∫ b

a

E

[(X

(n)t −X

(m)t

)2]dt

da cui discende subito che∫ baX

(n)t dBt è una successione di Cauchy in L2 (Ω,F , P ),

quindi ha limite, essendo questo spazio completo. Se X(n) è un’altra successione con lestesse caratteristiche convergente adX, allora la successione Y (n) data da Y (2n) = X(n),Y (2n+1) = X(n) ha le stesse caratteristiche e converge ad X, nel senso (4.1). Quindi∫ baY

(n)t dBt è una successione di Cauchy in L2 (Ω,F , P ). Il suo limite deve essere lo

stesso delle due sottosuccessioni di indici pari e dispari, limiti che quindi coincidono.La dimostrazione è completa.

Osservazione 18 L’integrale stocastico∫ baXtdBt è, per definizione, una classe di

equivalenza, o se si preferisce è una v.a. definita a meno di modificazioni su insie-mi di misura nulla. Non ha senso, fissato un certo ω ∈ Ω, chiedersi quanto valga(∫ b

aXtdBt

)(ω). In particolare, non ha senso scrivere cose del tipo

(∫ baXtdBt

)(ω) =∫ b

aXt (ω) dBt (ω) (per i processi elementari invece ha senso e vale l’identità). L’unica

Page 91: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

4.2. INTEGRALEDI PROCESSI PROGRESSIVAMENTEMISURABILI, DI QUADRATO INTEGRABILE91

teoria che, al momento attuale, è in grado di dare un significato a questo tipo di scrit-ture, per particolari processi X, è quella dei rough paths, però molto più laboriosa diquella ora sviluppata.

Teorema 24 Sia X di classe M2B (0, T ), per un certo T > 0. Allora

E

[∫ T

0

XsdBs

]= 0

E

[(∫ T

0

XsdBs

)2]

=

∫ T

0

E[X2s

]ds.

Più in generale, per ogni 0 ≤ s ≤ t ≤ T vale

E

[∫ t

s

XudBu|Fs]

= 0

E

[(∫ t

s

XudBu

)2∣∣∣∣∣Fs

]= E

[∫ t

s

X2udu

∣∣∣∣Fs] .Inoltre, Mt =

∫ t0XsdBs e M2

t −∫ t

0X2udu sono martingale rispetto a (Ft)t≥0, quindi∫ t

0X2udu è il processo crescente associato alla submartigala M

2t .

Proof. Sia X(n) è una successione di processi elementari di classe M2B (0, T ) che con-

verge ad X nel senso (4.1) (con a = 0, b = T ). Allora∫ T

0X

(n)s dBs converge a

∫ T0XsdBs

in L2 (Ω,F , P ), quindi (tramite semplici disuguaglianze) E[∫ T

0X

(n)s dBs

]converge a

E[∫ T

0XsdBs

], E[(∫ T

0X

(n)s dBs

)2]converge a E

[(∫ T0XsdBs

)2]e∫ T

0E

[(X

(n)s

)2]ds

converge a∫ T

0E [X2

s ] ds. Da questo si deducono le prime due identità.Per mostrare le altre, si prendano (senza restrizione) i processi X(n) aventi t ed

s come nodi, e convergenti ad X su [0, T ] nel senso (4.1); ne segue che convergonoad X anche su [s, t], nello stesso senso. Quindi

∫ tsX

(n)u dBu converge a

∫ tsXudBu in

L2 (Ω,F , P ). Inoltre, a causa di (4.1),∫ ts

(X

(n)u

)2

du converge a∫ tsX2udu in L

2 (Ω,F , P ).Grazie a questi fatti si può passare al limite nelle speranze condizionali e verificare le dueidentità. Infatti, ricordiamo che se Zn → Z in L1 (Ω,F , P ), allora E [Zn|G]→ E [Z|G]in L1 (Ω,F , P ):

E [|E [Zn|G]− E [Z|G]|] = E [|E [Zn − Z|G]|] ≤ E [E [|Zn − Z| |G]] = E [|Zn − Z|]→ 0.

Le affermazioni finali sulle proprietà di martingala sono ovvie conseguenze delleidentità precedenti, come nel caso dei processi elementari. La dimostrazione è completa.

Nel seguito diremo che X è di classe M2B se è di classe M

2B (0, T ) per ogni T > 0.

Page 92: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

92 CAPITOLO 4. L’INTEGRALE STOCASTICO

Teorema 25 Sia X di classe M2B. Allora il processo Mt =

∫ t0XsdBs, t ≥ 0, ha una

versione continua.

Proof. Sia X(n) è una successione di processi elementari di classe M2B (0, T ) che con-

verge ad X nel senso (4.1) (con a = 0, b = T ). I processi M (n)t =

∫ t0X

(n)s dBs sono

martingale continue. La continuità si vede subito dalla definizione che abbiamo usatomeno spesso: seXt =

∑n−1i=1 Xti1[ti,ti+1) (t),

∫ t0XsdBs =

∑n−1i=1 XtiBti+1∧t−Bti∧t. Quindi

vale la disuguaglianza massimale per la submartingala∣∣∣M (n)

t −M(m)t

∣∣∣2:P

(supt∈[0,T ]

∣∣∣M (n)t −M

(m)t

∣∣∣ > ε

)= P

(supt∈[0,T ]

∣∣∣M (n)t −M

(m)t

∣∣∣2 > ε2

)

≤ 1

ε2E

[∣∣∣M (n)T −M

(m)T

∣∣∣2]=

1

ε2

∫ T

0

E[∣∣X(n)

s −X(m)s

∣∣2] dsdove all’ultimo passaggio abbiamo usato la proprietà di isometria. Da questa disug-uaglianza, deduciamo la seguente affermazione: esiste una sottosuccessione M (nk)

t checonverge q.c. ad un processo continuo Nt, uniformemente in t:

P

(limk→∞

supt∈[0,T ]

∣∣∣M (nk)t −Nt

∣∣∣ = 0

)= 1. (4.2)

L’idea intuitiva (formalizzabile con l’uso di opportuni spazi funzionali) è: la disug-uaglianza precedente indica cheM (n)

· è di Cauchy in probabilità nello spazioC ([0, T ] ;R)munito della topologia della convergenza uniforme; dall’essere di Cauchy in probabil-ità discende che converge in probabilità e quindi ha una sottosuccessione che convergequasi certamente.Verifichiamolo “a mano”. Lasciamo al lettore il fatto elementare di costruire una

successione nk tale che

P

(supt∈[0,T ]

∣∣∣M (nk)t −M (nk+1)

t

∣∣∣ > 1

2k

)≤ 1

k2.

Da questo discende che∞∑k=1

P

(supt∈[0,T ]

∣∣∣M (nk)t −M (nk+1)

t

∣∣∣ > 1

2k

)<∞

e quindi, per il lemma di Borel-Cantelli (prima parte), esiste un evento Ω0 ∈ F diprobabilità uno tale che, per ogni ω ∈ Ω0, vale

supt∈[0,T ]

∣∣∣M (nk)t (ω)−M (nk+1)

t (ω)∣∣∣ ≤ 1

2k

Page 93: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

4.3. INTEGRALEDI PROCESSI PROGRESSIVAMENTEMISURABILI PIÙGENERALI93

definitivamente in k. QuindiM

(nk)t (ω)

k∈N

è di Cauchy in C ([0, T ] ;R) munito della

topologia della convergenza uniforme; quindi converge ad una funzione continua Nt (ω).Fissato, t, la convergenza q.c. di v.a. implica che il limite è misurabile, è una v.a.,quindi Nt è un processo stocastico; continuo (q.c.; in realtà va definito per ω /∈ Ω0

e possiamo definirlo identicamente nullo, quindi è continuo per ogni ω). Abbiamodimostrato l’asserzione (4.2).Basta ora ricordare che, fissato t ∈ [0, T ], la v.a. M (nk)

t converge in L2 (Ω,F , P )a Mt. Siccome converge q.c. a Nt, vale P (Nt = Mt) = 1 (entrambe le convergen-ze implicano quella in probabilità, ed il limite in probabilità è unico, come classe diequivalenza). Quindi N , che è un processo continuo, è una modificazione di M . Ladimostrazione è completa.

4.3 Integrale di processi progressivamente misura-bili più generali

Sia B = (Bt)t≥0 un moto browniano rispetto ad una filtrazione (Ft)t≥0. Dati b ≥ a ≥0, diciamo che un processo X = (Xt)t≥0 è di classe Λ2

B (a, b) se è progressivamentemisurabile e vale

P

(∫ b

a

X2t dt <∞

)= 1

I processi elementari, cioè della forma Xt =∑n−1

i=1 Xti1[ti,ti+1) (t) con Xti misurabilerispetto a Fti , sono progressivamente misurabili e di classe Λ2

B (a, b), senza bisogno dialcuna ipotesi di integrabilità sulle Xti .Si potrebbe anche dire che Λ2

B (a, b) è la famiglia delle classi di equivalenza dei

processi suddetti, identificando processi X,X ′ tali che P(∫ b

a(Xt −X ′t)

2 dt <∞)

= 1.Non useremo esplicitamente questa convenzione.

Teorema 26 Se X è di classe Λ2B (a, b), allora esiste una successione di processi

elementari X(n) tale che

limn→∞

∫ b

a

(Xt −X(n)

t

)2

dt = 0 (4.3)

quasi certamente. Esiste anche una successione di processi continui X(n), di classeΛ2B (a, b), che converge ad X nel senso (4.3).

La dimostrazione è simile a quella dei processi di classe M2B (a, b), forse un po’più

facile perché non bisogna tenere sotto controllo certe integrabilità rispetto ad ω. E’comunque molto lunga e di moderato interesse probabilistico, per cui la omettiamo.Vogliamo ora definire l’integrale stocastico

∫ baXtdBt, usando questo teorema. Un

modo è quello di basarsi sul seguente lemma molto interessante.

Page 94: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

94 CAPITOLO 4. L’INTEGRALE STOCASTICO

Lemma 5 Sia X un processo elementare. Allora, per ogni ε, ρ > 0, vale

P

(∣∣∣∣∫ b

a

XtdBt

∣∣∣∣ > ε

)≤ P

(∫ b

a

X2t dt > ρ

)+ρ

ε2.

Proof. Separiamo Ω nei due eventi A =∫ b

aX2t dt > ρ

ed Ac =

∫ baX2t dt ≤ ρ

:

P

(∣∣∣∣∫ b

a

XtdBt

∣∣∣∣ > ε

)= P

(∣∣∣∣∫ b

a

XtdBt

∣∣∣∣ > ε

∩ A

)+ P

(∣∣∣∣∫ b

a

XtdBt

∣∣∣∣ > ε

∩ Ac

)e maggioriamo il primo termine con P (A):

P

(∣∣∣∣∫ b

a

XtdBt

∣∣∣∣ > ε

)= P

(∫ b

a

X2t dt > ρ

)+ P

(∣∣∣∣∫ b

a

XtdBt

∣∣∣∣ > ε

∩ Ac

).

Resta da verificare che

P

(∣∣∣∣∫ b

a

XtdBt

∣∣∣∣ > ε,

∫ b

a

X2t dt ≤ ρ

)≤ ρ

ε2.

Introduciamo il processo Yt definito così (con la solita notazioneXt =∑n−1

i=1 Xti1[ti,ti+1) (t)):

Yt =

Xt per t ≤ ti+1 ∈ [ti, ti+1) se

∫ ti+1a

X2t dt ≤ ρ

0 altrimenti

(per i ∈ Ja,b). Vale∫ baY 2t dt ≤ ρ. Inoltre, se∫ b

a

X2t dt ≤ ρ

⊂ Y = X su [a, b] ⊂

∫ b

a

XtdBt =

∫ b

a

YtdBt

(per la verifica dell’ultima inclusione si pensi alla definizione di integrale stocastico perprocessi elementari). Quindi

P

(∣∣∣∣∫ b

a

XtdBt

∣∣∣∣ > ε,

∫ b

a

X2t dt ≤ ρ

)≤ P

(∣∣∣∣∫ b

a

YtdBt

∣∣∣∣ > ε,

∫ b

a

X2t dt ≤ ρ

)

≤ P

(∣∣∣∣∫ b

a

YtdBt

∣∣∣∣ > ε

)≤E

[∣∣∣∫ ba YtdBt

∣∣∣2]ε2

=E[∫ b

aY 2t dt]

ε2≤ ρ

ε2.

La dimostrazione è completa.

Page 95: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

4.3. INTEGRALEDI PROCESSI PROGRESSIVAMENTEMISURABILI PIÙGENERALI95

Corollario 11 Se X(n) è una successione di processi elementari che converge ad unprocesso X di classe Λ2

B (a, b) nel senso (4.3), allora la successione di v.a.∫ b

a

X(n)t dBt

è di Cauchy in probabilità. Il suo limite in probabilità dipende solo da X (non dallasuccessione scelta) e verrà indicato con

∫ baXtdBt, detto integrale di Itô di X.

Proof. Abbiamo

P

(∣∣∣∣∫ b

a

(X

(n)t −X

(m)t

)dBt

∣∣∣∣ > ε

)≤ P

(∫ b

a

(X

(n)t −X

(m)t

)2

dt > ρ

)+ρ

ε2.

La convergenza quasi certa (4.3), implica che, preso ρ > 0, esiste nρ ∈ N tale che

P

(∫ b

a

(X

(n)t −X

(m)t

)2

dt > ρ

)≤ ρ

per ogni n,m ≥ nρ (si pensi ad una delle varie ragioni). Quindi, fissato ε > 0,

P

(∣∣∣∣∫ b

a

(X

(n)t −X

(m)t

)dBt

∣∣∣∣ > ε

)≤ ρ+

ρ

ε2

per ogni n,m ≥ nρ. Relativamente al valore scelto di ε, prendiamo ρε = ε3:

P

(∣∣∣∣∫ b

a

(X

(n)t −X

(m)t

)dBt

∣∣∣∣ > ε

)≤ ε3 + ε

per ogni n,m ≥ nρε. Questo significa che∫ baX

(n)t dBt è di Cauchy in probabilità. La

dimostrazione è completa.Si può dimostrare facilmente (omettiamo i dettagli):

Proposizione 37 Sia X un processo di classe Λ2B (a, b),. Allora, per ogni ε, ρ > 0,

vale

P

(∣∣∣∣∫ b

a

XtdBt

∣∣∣∣ > ε

)≤ P

(∫ b

a

X2t dt > ρ

)+ρ

ε2.

In particolare, seXnt è una successione di processi di classe Λ2

B (a, b) tale che∫ ba

(Xnt −Xt)

2 dt

tende a zero in probabilità, allora∫ baXnt dBt converge a

∫ baXtdBt in probabilità.

Nel seguito diremo che X è di classe Λ2B se è di classe Λ2

B (0, T ) per ogni T > 0.Ricordiamo che un processoM = (Mt)t≥0 è una martingala locale se c’è una successionedi tempi d’arresto τn, crescente a +∞, tale che Mt∧τn è una martingala per ogni n;diremo che una tale successione di tempi d’arresto riduce la martingala locale.

Page 96: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

96 CAPITOLO 4. L’INTEGRALE STOCASTICO

Teorema 27 Sia X di classe Λ2B. Allora il processo Mt =

∫ t0XsdBs, t ≥ 0, ha una

versione continua ed è una martingala locale. Una successione di tempi d’arresto cheriduce la martingala locale è data da

τn = inf

t > 0 :

∫ t

0

X2sds ≥ n

se l’insieme non è vuoto, altrimenti τn = +∞.

Proof. Diamo solo alcuni elementi della dimostrazione. Le v.a. τn sono tempi diarresto (basta considerare il processo Yt =

∫ t0X2sds e il suo istante di ingresso in [n,∞)),

sono crescenti (Yt è crescente) e tendono a +∞. Infatti, per ogni T > 0, esiste n0 (ω)tale che per ogni n ≥ n0 (ω) vale τn (ω) ≥ T , quasi certamente. Questo perché

An,T :=

∫ T

0

X2sds ≤ n

= τn ≥ T

e l’evento

AT :=⋃n∈N

An,T =

∫ T

0

X2sds <∞

ha probabilità uno per la proprietà Λ2

B.Il processo Yn,t = Xt1t≤τn (simile a quello usato nella dimostrazione del Lemma 5)

è di classe M2B: ∫ T

0

Y 2n,tds =

∫ T

0

X2s 1s≤τnds =

∫ T∧τn

0

X2sds ≤ n

quindi E[∫ T

0Y 2n,tds

]≤ n (si verifica anche la progressiva misurabilità di Yt). Allora

Mn,t =∫ t

0Yn,sdBs è una martingala continua (applichiamo la convenzione che il simbolo

indichi la versione continua).Su An,T , Yn,t = Xt per ogni t ∈ [0, T ]. Per il Lemma 6 esposto poco sotto, applicato

su ogni intervallo [0, t], vale

Mt =

∫ t

0

XsdBs =

∫ t

0

Yn,sdBs = Mn,t

su An,T quasi certamente, per ogni t ∈ [0, T ]. Si noti che in questa affermazione, il“quasi certamente”dipende da t. Se An,T avesse probabilità uno, avremmo finito:Mn,t

sarebbe una versione continua di Mt.Se m > n, siccome Ym,t = Yn,t per ogni t ∈ [0, T ] su An,T , per il Lemma 6, applicato

su ogni intervallo [0, t], vale

Mm,t =

∫ t

0

Ym,sdBs =

∫ t

0

Yn,sdBs = Mn,t

Page 97: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

4.3. INTEGRALEDI PROCESSI PROGRESSIVAMENTEMISURABILI PIÙGENERALI97

su An,T quasi certamente, per ogni t ∈ [0, T ]; con un ragionamento basato sui razionali,si vede che vale

Mm,t = Mn,t per ogni t ∈ [0, T ]

quasi certamente su An,T . E che la proprietà si può rendere uniforme in m. Pertanto,intersecando su ambo gli indici n ed m, esiste un insieme misurabile N di probabilitànulla tale che per ogni n, per ogni ω ∈ An,T\N ,

Mm,t (ω) = Mn,t (ω) per ogni t ∈ [0, T ] ed m ≥ n.

Su AT\N definiamo un processo (M∞,t)t∈[0,T ] nel seguente modo: preso ω ∈ AT\N ,poniamo

M∞,t (ω) = Mn,t (ω)

dove n è un qualsiasi indice tale che ω ∈ An,T\N (per quanto visto poco sopra, questadefinizione non dipende da n). Per le cose osservate precedentemente, M∞,t è unprocesso continuo. Inoltre, è una versione di Mt. Infatti, fissato t ∈ [0, T ], vale

P (M∞,t = Mt) = limn→∞

P (M∞,t = Mt ∩ An,T\N)

= limn→∞

P (Mn,t = Mt ∩ An,T\N) = limn→∞

P (An,T\N) = 1.

Questo dimostra la prima affermazione del teorema, cioè che M ha una versionecontinua.Sapere che la famiglia di classi di equivalenza (M0

t )t∈[0,T ], M0t :=

∫ t0XsdBs, ha una

versione continua Mt, aiuta a dare un significato univoco al processo stoppato Mt∧τn .Infatti, Mt, continuo, diventa ora definito univocamente a meno di indistinguibilità,quindi la posizione (Mt∧τn) (ω) := Mt∧τn(ω) (ω) non pone interrogativi di significato.Usando allora la versione continua, vale (omettiamo la verifica dettagliata della

seconda uguaglianza)

Mt∧τn =

∫ t∧τn

0

XsdBs =

∫ t

0

Xs1s≤τndBs =

∫ t

0

Yn,sdBs

e questa è una martingala in quanto Yn,t è un processo di classeM2B. La dimostrazione

è completa.Abbiamo usato il seguente fatto, di interesse indipendente.

Lemma 6 SianoX, Y di classe Λ2B ed A ∈ F tali cheXt (ω) = Yt (ω) per ogni t ∈ [0, T ]

e ω ∈ A. Allora∫ T

0XsdBs =

∫ T0YsdBs su A quasi certamente (cioè esiste un insieme

di misura nulla N tale che∫ T

0XsdBs =

∫ T0YsdBs per ogni ω ∈ A\N).

Non possiamo dare la dimostrazione completa perché poggia sul metodo di approssi-mazione di processi di classe Λ2

B con processi elementari, ma almeno vediamo l’idea.

Page 98: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

98 CAPITOLO 4. L’INTEGRALE STOCASTICO

Vale, a proposito di tale approssimazione, che si possano prendere due successioni diprocessi elementariXn, Y n che convergono aX, Y nel modo richiesto, tali cheXn

t (ω) =

Y nt (ω) per ogni t ∈ [0, T ] e ω ∈ A. Da ciò discende che

∫ T0Xns dBs =

∫ T0Y ns dBs su

A. La convergenza in probabilità implica quella quasi certa, quindi dall’identità prece-dente e dalla convergenza quasi certa di

∫ T0Xns dBs e

∫ T0Y ns dBs a

∫ T0XsdBs e

∫ T0YsdBs

rispettivamente, si ottiene∫ T

0XsdBs =

∫ T0YsdBs su A.

Il lemma dice che, se pur l’integrale stocastico non è definito ω per ω ma solo conun procedimento globale in ω, tuttavia rispetta una certa forma di dipendenza localeda ω.Concludiamo con un risultato nello stile delle somme di Riemann.

Proposizione 38 SeX è un processo continuo di classe Λ2B e (πn) è una successione di

partizioni di [0, T ], con |πn| → 0, con πn = tni , i = 0, ..., Nn allora vale in probabilità

limn→∞

Nn−1∑i=0

Xtni

(Btni+1

−Btni

)=

∫ T

0

XsdBs.

Proof. Si denoti con X(n)t il processo elementare

∑Xtni

1[tni ,tni+1). Vale

Nn−1∑i=0

Xtni

(Btni+1

−Btni

)=

∫ T

0

Xns dBs.

Inoltre, per la continuità di X, quasi certamente accade che X(n)t converge ad Xt

uniformemente in t, quindi vale l’ipotesi dell’affermazione di convergenza della Propo-sizione 37, che garantisce pertanto che

∫ T0Xns dBs →

∫ T0XsdBs in probabilità. La

dimostrazione è completa.

4.4 Il caso multidimensionale

4.4.1 Moto browniano in Rd

Definizione 13 Un moto browniano in Rd, definito su uno spazio probabilizzato (Ω,F , P ),

rispetto ad una filtrazione (Ft)t≥0 è un vettore di processi stocastici Bt =(B

(1)t , ..., B

(d)t

)tale che ciascuna componente B(i)

t è un moto browniano in R rispetto ad (Ft)t≥0 e lecomponenti sono indipendenti.

Si possono dare varie formulazioni equivalenti, ad esempio:

Definizione 14 Un moto browniano in Rd, definito su uno spazio probabilizzato (Ω,F , P ),rispetto ad una filtrazione (Ft)t≥0 è un processo stocastico (Bt)t≥0 su (Ω,F , P ) a valoriin(Rd,B

(Rd))tale che:

Page 99: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

4.4. IL CASO MULTIDIMENSIONALE 99

i) P (B0 = 0) = 1

ii) è adattato a (Ft)t≥0 e continuoiii) per ogni t ≥ s ≥ 0, l’incremento Bt −Bs è un vettore gaussiano in Rd a media

nulla e matrice di covarianza pari a (t− s) Id, indipendente da Fs.

L’indipendenza di Bt−Bs da Fs, con t ≥ s ≥ 0 arbitrari, si può riformulare dicendoche per ogni tn ≥ tn−1 ≥ ... ≥ t1 ≥ 0 i vettori aleatori Btn − Btn−1 , ... , Bt2 − Bt1 , Bt1

sono indipendenti.Essendo particolarmente elegante, mostriamo una realizzazione (approssimata) di

un moto browniano in R2, ottenuta col software R, basata sulla formula

B(i)nh = B

(i)h +

(B

(i)2h −B

(i)h

)+ ...+

(B

(i)nh −B

(i)(n−1)h

), i = 1, 2

dove gli incrementi sono indipendenti (anche da una componente all’altra) e sono tuttegaussiane a media nulla e varianza h. Basta chiedere al software di generare tantinumeri gaussiani centrati aventi deviazione standard

√h, tramite i comandi:

h=0.01W1=rnorm(10000,0,sqrt(h))W2=rnorm(10000,0,sqrt(h))B1=cumsum(W1)B2=cumsum(W2)plot(B1,B2,type=lines)A titolo di confronto, disegnamo la sua prima componente:ts.plot(B1)

Osservazione 19 Se U è una matrice ortogonale di Rd, allora UBt è ancora un motobrowniano in Rd. Lo si può vedere usando la seconda definizione.

Page 100: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

100 CAPITOLO 4. L’INTEGRALE STOCASTICO

4.4.2 Integrale stocastico rispetto ad un moto browniano inRd

Dato un moto browniano Bt =(B

(1)t , ..., B

(d)t

)in Rd rispetto ad una filtrazione (Ft)t≥0

ed un processo stocastico Xt di classe Λ2 (qui omettiamo l’indicazione B in quantofuorviante), progressivamente misurabile rispetto a (Ft)t≥0, sono ben definiti tutti gliintegrali di Itô ∫ t

0

XsdB(i)s

per i = 1, ..., d. [Si noti che qui è importante essere svincolati dalla filtrazione naturaledel moto browniano rispetto a cui si integra.] Se consideriamo un processo stocastico

Xt =(X

(1)t , ..., X

(d)t

)a valori in Rd avente tutte le componenti di classe Λ2 (diremo

che il processo è di classe Λ2; analogamente per la classe M2), è ben definita la sommadi integrali stocastici ∫ t

0

Xs · dBs :=d∑i=1

∫ t

0

X(i)s dB(i)

s .

E’una martingala locale continua e, se X è di classe M2, è anche una martingala,centrata. Vediamo che forma assume la formula di isometria. Intanto si noti il seguentefatto, forse apparentemente innaturale: gli integrali

∫ t0X

(i)s dB

(i)s e

∫ t0X

(j)s dB

(j)s sono

scorrelati, nonostante contengano processi X(i)s e X(j)

s che possono anche coincidere(gli integrali non sono però indipendenti).

Lemma 7 Se X è di classe M2, allora

E

[∫ t

0

X(i)s dB(i)

s

∫ t

0

X(j)s dB(j)

s

]= 0

per i 6= j.

Page 101: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

4.4. IL CASO MULTIDIMENSIONALE 101

Proof. Per evitare troppi indici, supponiamo i = 1, j = 2. Supponiamo X(1)s , X

(2)s

processi elementari e, senza restrizione, basati sulla stessa partizione tn ≥ tn−1 ≥ ... ≥t1 ≥ t0 = 0:

X(i)s =

n−1∑k=0

X(i)k 1[tk,tk+1) per i = 1, 2.

Allora, con la notazione ∆kB(i) = B

(i)tk+1−B(i)

tk, abbiamo

E

[∫ t

0

X(i)s dB(i)

s

∫ t

0

X(j)s dB(j)

s

]=

n−1∑k,h=0

E[X

(1)k X

(2)h ∆kB

(1)∆hB(2)].

Se h = k abbiamo

E[X

(1)k X

(2)k ∆kB

(1)∆kB(2)]

= E[X

(1)k X

(2)k

]E[∆kB

(1)]E[∆kB

(2)]

= 0

perché X(1)k X

(2)k è Ftk misurabile, e gli incrementi ∆kB

(i) sono indipendenti da Ftk equindi da X(1)

k X(2)k ed anche tra loro perché componenti diverse del moto browniano

in Rd.Se h > k (il caso h < k è identico) abbiamo

E[X

(1)k X

(2)h ∆kB

(1)∆hB(2)]

= E[X

(1)k X

(2)h ∆kB

(1)]E[∆hB

(2)]

= 0

perché X(1)k X

(2)h ∆kB

(1) è Fth misurabile, ∆hB(2) è indipendente da Fth e quindi da

X(1)k X

(2)h ∆kB

(1). La dimostrazione nel caso di processi elementari è completa e da essisi passa al caso generale con argomenti di approssimazione simili a quelli usati già altrevolte, che omettiamo.

Proposizione 39 Se X è di classe M2, allora

E

[(∫ t

0

Xs · dBs

)2]

= E

[∫ t

0

|Xs|2 ds]

dove |x| indica la norma euclidea del vettore x ∈ Rd.

Proof. Abbiamo

E

[(∫ t

0

Xs · dBs

)2]

= E

( d∑i=1

∫ t

0

X(i)s dB(i)

s

)2

=

d∑i,j=1

E

[∫ t

0

X(i)s dB(i)

s

∫ t

0

X(j)s dB(j)

s

].

Page 102: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

102 CAPITOLO 4. L’INTEGRALE STOCASTICO

I termini con i 6= j sono nulli per il lemma precedente. La somma per i = j produce ilrisultato della formula, in quanto

E

[(∫ t

0

X(i)s dB(i)

s

)2]

= E

[∫ t

0

(X(i)s

)2ds

].

La dimostrazione è completa.Ragionando componente per componente, sono definiti anche gli integrali stocastici

della forma∫ t

0XsdBs dove X è un processo a valori matrici d× k, con componenti X ij

tutte di classe almeno Λ2. Il risultato Yt =∫ t

0XsdBs è un processo a valori in Rk, di

componenti

Y it =

d∑j=1

∫ t

0

X ijs dB

js .

Se le componentiX ij sono di classeM2, la formula di isometria in questo caso assume laseguente forma. Ora con |·| indicheremo la norma euclidea in Rk (o altra dimensione)e con ‖A‖HS la norma Hilbert-Schmidt di una matrice A ∈ Rd×k, ovvero la normaeuclidea in Rd×k, definita da

‖A‖2HS =

k∑i=1

d∑j=1

A2ij.

Proposizione 40 Se le componenti X ij sono di classe M2, allora

E

[∣∣∣∣∫ T

0

XsdBs

∣∣∣∣2]

= E

[∫ T

0

‖Xs‖2HS ds

].

Proof. Infatti, essendo E[|YT |2

]=∑k

i=1E[(Y i

T )2],

E

[∣∣∣∣∫ T

0

XsdBs

∣∣∣∣2]

=

k∑i=1

E

( d∑j=1

∫ T

0

X ijs dB

js

)2

=k∑i=1

E

[d∑j=1

∫ T

0

(X ijs

)2ds

]= E

[∫ T

0

‖Xs‖2HS ds

]dove abbiamo usato la Proposizione 39.Anche le disuguaglianze per le martingale si trasportano al caso vettoriale. A titolo

di esempio, vediamo la disuguaglianza di Doob per p = 2.

Proposizione 41 Se le componenti X ij sono di classe M2, allora

E

[supt∈[0,T ]

∣∣∣∣∫ t

0

XsdBs

∣∣∣∣2]≤ 4E

[∫ T

0

‖Xs‖2HS ds

].

Page 103: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

4.4. IL CASO MULTIDIMENSIONALE 103

Proof.

E

[supt∈[0,T ]

∣∣∣∣∫ t

0

XsdBs

∣∣∣∣2]

= E

supt∈[0,T ]

k∑i=1

(d∑j=1

∫ t

0

X ijs dB

js

)2

≤k∑i=1

E

supt∈[0,T ]

(d∑j=1

∫ t

0

X ijs dB

js

)2 .

Ciascun processo∑d

j=1

∫ t0X ijs dB

js è una martingala di quadrato integrabile e quindi,

per la disuguaglianza di Doob,

≤ 4k∑i=1

E

( d∑j=1

∫ T

0

X ijs dB

js

)2

= 4k∑i=1

E

[d∑j=1

∫ T

0

(X ijs

)2ds

]= 4E

[∫ T

0

‖Xs‖2HS ds

]avendo usato nuovamente la Proposizione 39.Valgono tanti altri fatti simili al caso uni-dimensionale, che non descriviamo in

dettaglio.

Page 104: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

104 CAPITOLO 4. L’INTEGRALE STOCASTICO

Page 105: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

Capitolo 5

La formula di Itô

Seguiamo un approccio a questo tema non completamente tradizionale ma estrema-mente istruttivo, dovuto a Hans Föllmer. In sintesi, esso sviluppa prima una formuladi Itô per funzioni deterministiche, che poi viene applicata traiettoria per traiettoriaad alcune classi di processi stocastici.

5.1 La “chain rule”per funzioni poco regolari

Vogliamo dimostrare una formula della catena (chain rule) per una composizione deltipo f (xt) dove f : R → R è regolare, anzi di classe C2, ma (xt)t∈[0,T ] è una fun-zione non necessariamente differenziabile (e nemmeno a variazione limitata), con unaproprietà speciale di “variazione quadratica”. Per non approfondire alcuni dettagli tec-nici, supponiamo T fissato e finito, ma si potrebbe riscrivere tutto per funzioni (xt)t≥0.Senza restrizione, prendiamo T = 1.Indichiamo con π una generica partizione di [0, 1] della forma 0 = t0 ≤ t1 ≤ ... ≤

tn = 1, con |π| il numero maxi=0,...,n−1 |ti+1 − ti|, con [x, x]πt il numero

[x, x]πt =∑π3ti≤t

(xti+1 − xti

)2, t ∈ [0, 1]

con la convenzione che tn+1 = tn, quindi xtn+1−xtn = 0. Questa convenzione, che servesemplicemente a cancellare un ultimo termine spurio nella somma precedente, verràsempre adottata tacitamente in questi paragrafi. Oppure, quando questo semplifichi lascrittura, useremo la notazione

Jπt = i = 0, ..., n− 1 : tni ≤ t

con la quale scriveremo

[x, x]πt =∑i∈Jπt

(xti+1 − xti

)2, t ∈ [0, 1]

105

Page 106: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

106 CAPITOLO 5. LA FORMULA DI ITÔ

Introduciamo inoltre la misura su ([0, 1] ,B ([0, 1]))

µπ =n−1∑i=0

(xti+1 − xti

)2δxti

di cui t 7→ [x, x]πt è la funzione di ripartizione.

Definizione 15 Sia (πn)n∈N una successione di partizioni con |πn| → 0 per n → ∞ed x : [0, 1] → R una funzione continua. Diciamo che x ha variazione quadraticalungo la successione πn se esiste una funzione continua, indicata nel seguito con [x, x]t,t ∈ [0, 1], tale che

limn→∞

[x, x]πnt = [x, x]t (5.1)

per ogni t ∈ [0, 1].

Osservazione 20 Siccome [x, x]πnt è non decrescente, anche [x, x]t è non decrescente.

Osservazione 21 Il simbolo [x, x]t non è completamente appropriato perché dipendeanche dalla successione (πn)n∈N, oltre che da x. In tutti i nostri esempi, però, dipenderàsolo da x, per cui non ci sembra utile appesantire la notazione tramite una dipendenzaesplicita dalla successione.

Osservazione 22 Se x è di classe Cα con α > 12allora la variazione quadrata (esiste

ed) è pari a zero. Per avere una variazione quadratica non nulla, x dev’essere menoregolare.

La funzione continua non decrescente [x, x]t, t ∈ [0, 1], definisce una misura finitad [x, x]t su ([0, 1] ,B ([0, 1])). Vale∫ b

a

d [x, x]s = [x, x]b − [x, x]a

per ogni 0 ≤ a ≤ b ≤ 1. La funzione [x, x]t è la funzione di ripartizione di questa misura.Gli integrali del tipo

∫ t0ϕ (s) d [x, x]s che scriveremo nel seguito, con ϕ : [0, t] → R

continua, sono da intendersi rispetto a tale misura.

Proposizione 42 i) Sia D ⊂ [0, 1] un insieme denso tale che 1 ∈ D. Se esiste unafunzione uniformemente continua t 7−→ [x, x]t, definita su D, tale che vale (5.1) perogni t ∈ D, allora x ha variazione quadratica lungo la successione πn.ii) Se x ha variazione quadratica lungo la successione πn, allora per ogni t ∈ [0, 1]

limn→∞

∑i∈Jπnt

ϕ (tni )(xtni+1 − xtni

)2

=

∫ t

0

ϕ (s) d [x, x]s (5.2)

per ogni funzione ϕ : [0, t] → R continua. Abbiamo indicato con tni , i = 0, 1, ..., Nn, ipunti della partizione πn.

Page 107: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

5.1. LA “CHAIN RULE”PER FUNZIONI POCO REGOLARI 107

Proof. Ricordiamo preliminarmente alcuni fatti sulla convergenza di misure sullaretta reale. Sia (µn) una successione di misure finite, µ una misura finita, Fn (x) =µn ((−∞, x]) e F (x) = µ ((−∞, x]) le loro funzioni di ripartizione. Ricordiamo che:a) la convergenza vaga (cioè contro le funzioni continue a supporto compatto) implicala stretta (cioè contro le funzioni continue limitate) se µn (R) → µ (R); b) se vale laconvergenza stretta allora Fn (x) → F (x) in tutti i punti in cui F è continua; c) seFn (x)→ F (x) in tutti i punti di un insieme denso allora vale la convergenza vaga.Siano ora (µn) e µ a supporto in [0, 1]. Particolarizzando le affermazioni precedenti

vediamo che: a) la convergenza vaga e la stretta coincidono; b) se vale la convergenzastretta allora Fn (x)→ F (x) in tutti i punti in cui F è continua; c) se esiste un insiemedenso D ⊂ [0, 1] con 1 ∈ D, per cui vale Fn (x) → F (x) per ogni x ∈ D, allora valela convergenza vaga. In particolare se ne deduce il seguente criterio: d) se esiste uninsieme denso D ⊂ [0, 1] con 1 ∈ D, per cui vale Fn (x)→ F (x) per ogni x ∈ D, alloraFn (x)→ F (x) in tutti i punti in cui F è continua.La dimostrazione dell’affermazione (i) ora è ovvia. La funzione t 7→ [x, x]t ha

estensione unica ad una funzione continua non decrescente (perché limite su un densodi funzioni non decrescenti) a tutto [0, 1], che continuiamo a indicare con t 7→ [x, x]t.Introduciamo la misura µ su ([0, 1] ,B ([0, 1])) avente t 7→ [x, x]t come funzione diripartizione e ricordiamo che t 7→ [x, x]πnt è la funzione di ripartizione di µπn . Poniamoper chiarezza espositiva Fn (t) = [x, x]πnt , F (t) = [x, x]t, funzioni di ripartizione di µ

πn

e µ rispettivamente. Si tratta di misure a supporto in [0, 1]. Siccome Fn (t) → F (t)per t in un insieme denso di [0, 1] con 1 ∈ D, Fn (t)→ F (t) per tutti i t in cui F (t) ècontinua, quindi per ogni t ∈ [0, 1].Dimostriamo (ii). Per t = 1, (5.2) è stata appena dimostrata, perché equivale alla

convergenza stretta µπn → µ cioè a

limn→∞

∫ 1

0

ϕ (t)µπn (dt) =

∫ 1

0

ϕ (t)µ (dt) (5.3)

per ogni funzione continua ϕ : [0, 1] → R. Per t ∈ [0, 1], dobbiamo mostrare chela successione di misure µπn|[0,t] converge a µ|[0,t], dove le restrizioni sono definite nelseguente modo: preso A ∈ B ([0, t]), lo si vede come elemento di B ([0, 1]), e si applicala misura. Le funzioni di ripartizione di queste restrizioni sono le restrizioni dellefunzioni di ripartizione originarie. Per esse vale la convergenza in ogni punto (peripotesi del punto (ii) di [0, t], quindi vale la convergenza stretta di µπn|[0,t] a µ|[0,t]. Ladimostrazione è completa.

Teorema 28 Sia x : [0, 1] → R una funzione continua avente variazione quadratica[x, x]t lungo una successione πn. Sia f : R → R di classe C2. Allora esiste finito il

limite limn→∞∑

i∈Jπntf ′(xtni) (xtni+1 − xtni

), che indichiamo con

∫ t0f ′ (xs) dxs, e vale

f (xt) = f (x0) +

∫ t

0

f ′ (xs) dxs +1

2

∫ t

0

f ′′ (xs) d [x, x]s

Page 108: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

108 CAPITOLO 5. LA FORMULA DI ITÔ

Abbiamo indicato con tni , i = 0, 1, ..., Nn, i punti della partizione πn.

Proof. Abbreviamo Jnt = Jπnt . Vale

f (xt)− f (x0) = limn→∞

∑i∈Jnt

(f(xtni+1

)− f

(xtni))

essendo x continua. Cerchiamo di esprimere f(xtni+1

)− f

(xtni)opportunamente.

Ricordiamo la formula di Taylor, in un generico punto x0:

f (x) = f (x0) + f ′ (x0) (x− x0) +1

2f ′′(ξx,x0

)(x− x0)2

dove ξx,x0 è un punto intermedio tra x ed x0. Possiamo riscriverla nella forma

f (x) = f (x0) + f ′ (x0) (x− x0) +1

2f ′′ (x0) (x− x0)2 + r (x, x0)

dove r (x, x0) = 12

(f ′′(ξx,x0

)− f ′′ (x0)

)(x− x0)2. Per x, x0 appartenenti all’immagine

di t 7→ xt (o a qualsiasi compatto, da cui dipenderà la funzione a), r (x, x0) soddisfa

|r (x, x0)| ≤ a (|x− x0|) (x− x0)2

dove r 7−→ a (r), r ≥ 0, è una funzione crescente e infinitesima nell’origine, con a(0) =0. Basta porre, relativamente ad un compatto K fissato,

a (r) = supx,x0∈K|x−x0|≤r

1

2

∣∣f ′′ (ξx,x0)− f ′′ (x0)∣∣

che è finito per ogni r grazie alla continuità di f ′′, e verifica limr→0 a (r) = 0 perl’uniforme continuità di f ′′.Usiamo questa versione della formula di Taylor:∑

i∈Jnt

(f(xtni+1

)− f

(xtni))

=∑i∈Jnt

f ′(xtni) (xtni+1 − xtni

)+

1

2

∑i∈Jnt

f ′′(xtni) (xtni+1 − xtni

)2

+∑i∈Jnt

r(xtni+1 , xtni

).

Il secondo termine a destra dell’uguale converge a 12

∫ t0f ′′ (xs) d [x, x]s. Il terzo termine

tende a zero, essendo∑i∈Jnt

r(xtni+1 , xtni

)≤

∑i∈Jnt

a(∣∣∣xtni+1 − xtni ∣∣∣) (xtni+1 − xtni )2

≤ maxi∈Jnt

a(∣∣∣xtni+1 − xtni ∣∣∣)∑

i∈Jnt

(xtni+1 − xtni

)2

≤ a

(maxi∈Jnt

∣∣∣xtni+1 − xtni ∣∣∣) [x, x]πnt

Page 109: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

5.1. LA “CHAIN RULE”PER FUNZIONI POCO REGOLARI 109

ed usando il fatto che maxi∈Jnt

∣∣∣xtni+1 − xtni ∣∣∣→ 0 per n→∞ (essendo x uniformemente

continua e |πn| → 0), a è infinitesima e [x, x]πnt è limitato perché converge. Il terminea sinistra dell’uguale converge a f (xt) − f (x0). Quindi anche il primo termine adestra dell’uguale converge e vale la formula enunciata dal teorema. La dimostrazioneè completa.

Osservazione 23 Se x è differenziabile con continuità, vale

f (xt) = f (x0) +

∫ t

0

f ′ (xs) dxs

dove∫ t

0f ′ (xs) dxs va inteso come

∫ t0f ′ (xs)x

′sds. Il correttore

1

2

∫ t

0

f ′′ (xs) d [x, x]s

è la novità di questa formula, nel caso di x meno regolare ma avente variazionequadratica.

5.1.1 Caso multidimensionale e dipendente dal tempo

Definizione 16 Date due funzione continue x1, x2 : [0, 1] → R ed una successione dipartizioni (πn)n∈N con |πn| → 0 per n → ∞, diciamo che x1 e x2 hanno variazionemutua [x1, x2]t, t ∈ [0, 1], lungo πn, se per ogni t ∈ [0, 1] esiste finito il limite

limn→∞

∑k∈Jπnt

(x1tnk+1− x1

tnk

)(x2tnk+1− x2

tnk

)

e definisce una funzione continua, che indichiamo appunto con [xi, xj]t, t ∈ [0, 1]. Sex1 = x2, il concetto si riduce a quello di variazione quadratica lungo πn.

Consideriamo ora una funzione x : [0, 1]→ Rd di componenti xi, i = 1, ..., d.

Definizione 17 Sia (πn)n∈N una successione di partizioni con |πn| → 0 per n → ∞.Diciamo che una funzione continua x : [0, 1]→ Rd ha variazione quadratica congiuntalungo la successione πn se per ogni i, j = 1, ..., d (anche i = j) le componenti xi e xj

hanno variazione mutua [xi, xj]t, t ∈ [0, 1], lungo πn, ovvero[xi, xj

]t

= limn→∞

∑k∈Jπnt

(xitnk+1 − x

itnk

)(xjtnk+1 − x

jtnk

). (5.4)

Page 110: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

110 CAPITOLO 5. LA FORMULA DI ITÔ

Lemma 8 La funzione continua x : [0, 1] → Rd ha variazione quadratica congiuntalungo πn se e solo se per ogni i, j = 1, ..., d (anche i = j) le funzioni xi + xj hannovariazione quadratica lungo πn. Le variazioni suddette sono legate dalle formule[

xi, xj]t

=1

2

([xi + xj, xi + xj

]t−[xi, xi

]t−[xj, xj

]t

)[xi + xj, xi + xj

]t

=[xi, xi

]t+[xj, xj

]t+ 2

[xi, xj

]t.

Proof. Supponiamo che valga la condizione della definizione. Dall’indentità((xitnk+1 + xjtnk+1

)−(xitnk + xjtnk

))2

=(xitnk+1 − x

itnk

)2

+(xjtnk+1 − x

jtnk

)2

+ 2(xitnk+1 − x

itnk

)(xjtnk+1 − x

jtnk

)deduciamo che xi + xj ha variazione quadratica lungo πn. Viceversa, se vale la con-dizione del lemma, dall’indentità(

xitnk+1 − xitnk

)(xjtnk+1 − x

jtnk

)=

1

2

(((xitnk+1 + xjtnk+1

)−(xitnk + xjtnk

))2

−(xitnk+1 − x

itnk

)2

−(xjtnk+1 − x

jtnk

)2)

deduciamo che xi e xj hanno variazione mutua lungo πn.L’utilità del lemma è quella di riportare il problema della variazione mutua a quello

della variazione quadratica, a cui possiamo applicare la Proposizione 42. Ne discendesubito la variante in dimensione d:

Proposizione 43 i) Sia D ⊂ [0, 1] un insieme denso tale che 1 ∈ D. Se, per ognii, j = 1, ..., d, esiste una funzione uniformemente continua t 7−→ [xi, xj]t, definita suD, tale che vale (5.4) per ogni t ∈ D, allora x ha variazione quadratica congiunta lungoπn.ii) Se x : [0, 1]→ Rd ha variazione quadratica lungo πn allora, per ogni i, j = 1, ..., d

ed ogni t ∈ [0, 1] esiste il seguente limite

limn→∞

∑k∈Jπnt

ϕ (tni )(xitnk+1 − x

itnk

)(xjtnk+1 − x

jtnk

)=

∫ t

0

ϕ (s) d[xi, xj

]s

per ogni funzione ϕ : [0, t] → R continua e limitata. L’integrale∫ t

0ϕ (s) d [xi, xj]s può

essere inteso per differenza, secondo la definizione di [xi, xj]t.

Teorema 29 Sia x : [0, 1] → Rd una funzione continua avente variazione quadraticacongiunta lungo una successione πn. Sia f : [0, 1] × Rd → R una funzione continua

Page 111: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

5.1. LA “CHAIN RULE”PER FUNZIONI POCO REGOLARI 111

avente le derivate ∂f∂t, ∂f∂xi, ∂2f∂xi∂xj

continue (diremo di classe C1,2). Allora esiste finitoil limite

limn→∞

∑k∈Jπnt

d∑i=1

∂f

∂xi(tnk , xtnk

) (xitnk+1 − x

itnk

)che indichiamo con ∫ t

0

∇f (s, xs) · dxs

e vale

f (t, xt) = f (0, x0) +

∫ t

0

∂f

∂t(s, xs) ds+

∫ t

0

∇f (s, xs) · dxs

+1

2

d∑i,j=1

∫ t

0

∂2f

∂xi∂xj(s, xs) d

[xi, xj

]s.

Osservazione 24 Gli integrali∫ t

0∂f∂xi

(s, xs) dxis non sono autonomamente definiti, so-

lo la loro somma. Questo è il difetto principale di questa teoria “deterministica” delcalcolo di Itô. Il problema sparisce nel caso di processi stocastici, in quanto questiintegrali saranno definiti nel senso di Itô.

Proof. La dimostrazione è identica al caso d = 1; la diamo per completezza. ScriviamoJnt per J

πnt . Diamo la dimostrazione solo nel caso di f indipendente dal tempo. Vale

f (xt)− f (x0) = limn→∞

∑k∈Jnt

(f(xtnk+1

)− f

(xtnk))

essendo x continua. Cerchiamo di esprimere f(xtnk+1

)− f

(xtnk)opportunamente.

Ricordiamo la formula di Taylor, in un generico punto x0:

f (x) = f (x0) +d∑i=1

∂f

∂xi(x0)

(xi − xi0

)+

1

2

d∑i,j=1

∂2f

∂xi∂xj(ξx,x0

) (xi − xi0

) (xj − xj0

)dove ξx,x0 è un punto intermedio tra x ed x0. Possiamo riscriverla nella forma

f (x) = f (x0) +

d∑i=1

∂f

∂xi(x0)

(xi − xi0

)+

1

2

d∑i,j=1

∂2f

∂xi∂xj(x0)

(xi − xi0

) (xj − xj0

)+ r (x, x0)

Page 112: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

112 CAPITOLO 5. LA FORMULA DI ITÔ

dove

r (x, x0) =1

2

d∑i,j=1

(∂2f

∂xi∂xj(ξx,x0

)− ∂2f

∂xi∂xj(x0)

)(xi − xi0

) (xj − xj0

).

Per x, x0 appartenenti alla chiusura convessa dell’immagine di t 7→ xt, r (x, x0) soddisfa

|r (x, x0)| ≤ a (|x− x0|) |x− x0|2

dove a è una funzione crescente e infinitesima nell’origine.Usiamo questa versione della formula di Taylor:

∑k∈Jnt

(f(xtnk+1

)− f

(xtnk))

=∑k∈Jnt

d∑i=1

∂f

∂xi(xtnk) (xitnk+1 − x

itnk

)

+1

2

∑k∈Jnt

d∑i,j=1

∂2f

∂xi∂xj(xtnk) (xitnk+1 − x

itnk

)(xjtnk+1 − x

jtnk

)+∑k∈Jnt

r(xtnk+1 , xtnk

).

Il secondo termine a destra dell’uguale converge a 12

∑di,j=1

∫ t0

∂2f∂xi∂xj

(xs) d [xi, xj]s, gra-zie al lemma. Il terzo termine tende a zero, essendo∑

k∈Jnt

r(xtnk+1 , xtnk

)≤

∑k∈Jnt

a(∣∣∣xtnk+1 − xtnk ∣∣∣) ∣∣∣xtnk+1 − xtnk ∣∣∣2

≤ maxka(∣∣∣xtnk+1 − xtnk ∣∣∣) ∑

k∈Jnt

d∑i=1

(xitnk+1 − x

itnk

)2

e ragionando come nel caso unidimensionale. Il termine a sinistra dell’uguale convergea f (xt)− f (x0). Quindi anche il primo termine a destra dell’uguale converge e vale laformula enunciata dal teorema. La dimostrazione è completa.

5.1.2 Integrale secondo Stratonovich

Nella teoria precedente il termine del secondo ordine della formula di Taylor gioca unruolo essenziale. Esiste però un modo alternativo di definire gli integrali che perme-tte di ottenere formule più somiglianti al caso classico dell’analisi matematica. Sonodetti integrali secondo Stratonovich. Hanno un innegabile vantaggio in contesti dove lecomposizioni sono frequentissime, come nel caso di processi stocastici su varietà in cuitutto è sempre definito tramite composizione con carte. Hanno però anche dei difetti,che descriveremo al momento buono.

Page 113: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

5.1. LA “CHAIN RULE”PER FUNZIONI POCO REGOLARI 113

Introduciamo il seguente simbolo, ove definito:∫ t

0

ys dxs =

∫ t

0

ysdxs +1

2[y, x]t

dove [y, x]t è la variazione mutua sopra introdotta e∫ t

0ysdxs indica, se esiste, il limite∫ t

0

ysdxs = limn→∞

∑i∈Jπnt

ytni

(xtni+1 − xtni

).

Vale (quando esiste il limite)∫ t

0

ys dxs = limn→∞

∑i∈Jπnt

ytni+1 + ytni2

(xtni+1 − xtni

)in quanto

[y, x]t = limn→∞

∑i∈Jπnt

(ytni+1 − ytni

)(xtni+1 − xtni

).

Teorema 30 Sia x : [0, 1] → R una funzione continua avente variazione quadraticalungo una successione πn. Sia f : R → R una funzione di classe C2. Allora esiste lavariazione mutua [f ′ (x) , x]t e vale

f (xt) = f (x0) +

∫ t

0

f ′ (xs) dxs.

Proof. Sappiamo che vale

f (xt) = f (x0) +

∫ t

0

f ′ (xs) dxs +1

2

∫ t

0

f ′′ (xs) d [x, x]s .

Dobbiamo dimostrare che [f ′ (x) , x]t esiste e vale

[f ′ (x) , x]t =

∫ t

0

f ′′ (xs) d [x, x]s .

Abbiamo, se esiste,

[f ′ (x) , x]t = limn→∞

∑i∈Jπnt

(f ′(xtni+1

)− f ′

(xtni))(

xtni+1 − xtni)

mentre sappiamo che∫ t

0

f ′′ (xs) d [x, x]s = limn→∞

∑i∈Jπnt

f ′′(xtni) (xtni+1 − xtni

)2

.

Page 114: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

114 CAPITOLO 5. LA FORMULA DI ITÔ

Inoltre sappiamo che

f ′(xtni+1

)− f ′

(xtni)

= f ′′(xtni) (xtni+1 − xtni

)+ r

(xtni , xtni+1

)con

|r (x, x0)| ≤ a (|x− x0|) (x− x0)2

dove a è una funzione crescente e infinitesima nell’origine. Quindi basta dimostrareche

limn→∞

∑i∈Jπnt

r(xtni , xtni+1

)= 0.

Ma questo segue facilmente dalla proprietà suddetta di r.

5.2 Applicazione ai processi stocastici

In questa sezione indichiamo la linea generale con cui si può applicare la chain rulenell’ambito dei processi stocastici. Da un lato, dobbiamo superare una dffi coltà: cheper gli usuali processi stocastici non si riesce ad esaminare direttamente la variazionequadratica delle loro singole traiettorie, ma solo secondo una definizione con la con-vergenza in probabilità. Dall’altro però, nel caso dei processi stocastici, gli integralistocastici sono autonomamente definiti, non solo come sottoprodotto della chain rulestessa; dobbiamo però verificare che la definizione autonoma coincide col la formuladata dalla chain rule. Iniziamo discutendo il problema della variazione quadratica.Formuliamo il risultato su [0, 1] ma vale su ogni [0, T ] oppure per t ≥ 0 (intendendoche vale su [0, T ] per ogni T > 0, con il risultato che non dipende da T ). Sia (πn) unasuccessione di partizioni di [0, 1] con |πn| → 0.

Definizione 18 Diciamo che un processo stocastico continuo X = (Xt)t∈[0,1] in Rd havariazione quadratica congiunta [X i, Xj]t, i, j = 1, ..., d, lungo πn se per ogni i, j =1, ..., d, esiste un processo stocastico continuo, che indichiamo con [X i, Xj]t, tale cheper ogni t ∈ [0, 1] sia[

X i, Xj]t

= P − limn→∞

∑i∈Jπnt

(X itni+1−X i

tni

)(Xjtni+1−Xj

tni

).

Chiamiamo [X i, Xj]t variazione mutua tra Xi e Xj, o variazione quadratica quando

i = j.

E’equivalente a chiedere che, per ogni i, j = 1, ..., d ed ogni t ∈ [0, 1], il processoX i +Xj abbia variazione quadratica.

Page 115: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

5.2. APPLICAZIONE AI PROCESSI STOCASTICI 115

Proposizione 44 Sia X = (Xt)t∈[0,1] un processo stocastico continuo in Rd che havariazione quadratica congiunta [X i, Xj]t, i, j = 1, ..., d, lungo πn Allora esiste una sot-tosuccessione (π′n) ed un evento Ω0 ∈ F con P (Ω0) = 1 tali che per ogni ω ∈ Ω0 la fun-zione vettoriale t 7→ Xt (ω) ha variazione quadratica congiunta su [0, 1] lungo πn, e vale[X i (ω) , Xj (ω)]t = [X i, X i]t (ω) per ogni i, j = 1, ..., d. Quando tutto questo accade,diremo semplicemente che il processo ha variazione quadratica congiunta [X i, Xj]t.

Proof. Scriviamo la dimostrazione in dimensione uno; il caso generale è identico. Siat ∈ Q∩ [0, 1]. Esiste una sottosuccessione (πtn) per cui valga la convergenza quasi certa:

P

limn→∞

∑i∈Jπ

tn

t

(Xtni+1

−Xtni

)2

= [X,X]t

= 1.

Con un procedimento diagonale (numerando gli elementi di Q ∩ [0, 1]), si può trovareun’unica sottosuccessione, che indichiamo con (π′n), tale che

P

limn→∞

∑i∈Jπ

tn

t

(Xtni+1

−Xtni

)2

= [X,X]t

= 1 per ogni t ∈ Q ∩ [0, T ] .

Siccome l’intersezione numerabile di insiemi di probabilità uno ha probabilità uno,l’insieme

A =

ω ∈ Ω : limn→∞

∑i∈Jπ

tn

t

(Xtni+1

(ω)−Xtni(ω))2

= [X,X]t (ω) ,∀t ∈ Q ∩ [0, 1]

ha la proprietà P (A) = 1. Per la Proposizione 42 (parte (i)),

A =

ω ∈ Ω : limn→∞

∑i∈Jπ

tn

t

(Xtni+1

(ω)−Xtni(ω))2

= [X,X]t (ω) ,∀t ∈ [0, 1]

.

La dimostrazione è completa.

Corollario 12 Sia X = (Xt)t∈[0,1] un processo stocastico continuo in Rd avente vari-azione quadratica congiunta lungo una successione di partizioni; indichiamo poi con(πn) una successione per cui sia vera la tesi della proposizione precedente. Sia f :[0, 1] × R → R una funzione di classe C1,2. Allora, per ogni t ∈ [0, 1], esiste il limitein probabilità e q.c.

limn→∞

∑k∈Jπnt

d∑i=1

∂f

∂xi(tnk , Xtnk

) (X itnk+1−X i

tnk

)

Page 116: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

116 CAPITOLO 5. LA FORMULA DI ITÔ

che indichiamo con ∫ t

0

∇f (s,Xs) · dXs

e vale q.c.

f (t,Xt) = f (0, X0) +

∫ t

0

∂f

∂t(s,Xs) ds+

∫ t

0

∇f (s,Xs) · dXs

+1

2

d∑i,j=1

∫ t

0

∂2f

∂xi∂xj(s,Xs) d

[X i, Xj

]s.

Per rendere ancor più operativa questa formula servono due ingredienti. Da un lato,avere un’ampia classe di processi X aventi variazione quadratica congiunta [X i, Xj]te che questa sia calcolabile. Dall’altro, sapere che la v.a.

∫ t0∇f (s,Xs) · dXs si può

riscrivere tramite integrali noti (di Itô o di Lebesgue). Affrontiamo i due problemi nelleprossime due sezioni.

5.2.1 Variazione quadratica

Discutiamo l’esistenza della variazione quadratica congiunta per diversi processi.

ll moto browniano unidimensionale

Sia B un moto browniano in R. Il Teorema 6 afferma che, data una successione (πn)con |πn| → 0, vale

limn→∞

E[|[B,B]πnt − t|

2]

= 0 (5.5)

per ogni t ≥ 0. In verità, a essere puntigliosi, in tale teorema, πn sono partizioni dellospecifico intervallo [0, t] trattato, quindi cambiando t si devono prendere partizionidiverse; ma correggendo di poco quella dimostrazione di può prendere la successionedi partizioni a priori, e farla valere per ogni t. Scriviamo tutto per [0, 1] ma vale perqualsiasi intervallo.

Proposizione 45 Data una successione di partizioni (πn) di [0, 1], con |πn| → 0, perogni t ∈ [0, 1] vale (5.5). Quindi il moto browniano ha variazione quadratica, e vale[B,B]t = t.

Proof. Fissato t ∈ [0, 1], indichiamo con πtn la partizione πn completata dal punto t.Chiamando tni i nodi di πn e s

ni i nodi di π

tn, vale

[B,B]πtnt − [B,B]πnt

=∑i∈Jπ

tn

t

(Bsni+1

−Bsni

)2

−∑i∈Jπnt

(Btni+1

−Btni

)2

=(Bt −Btnimax

)2

Page 117: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

5.2. APPLICAZIONE AI PROCESSI STOCASTICI 117

dove imax = max Jπnt . Sappiamo già che

limn→∞

E

[∣∣∣[B,B]πtnt − t

∣∣∣2] = 0.

Allora (5.5) discende dal fatto che

E

[∣∣∣[B,B]πtnt − [B,B]πnt

∣∣∣2] = E

[(Bt −Btnimax

)4]≤ C

(t− tnimax

)2

che tende a zero per n→∞.

Il moto browniano in Rd

Sia B =(B1, ..., Bd

)un moto browniano in Rd. Ogni componente Bi ha variazione

quadratica, pari a t. Invece la variazione mutua tra le componenti è nulla:

Proposizione 46 Data una successione di partizioni (πn) di [0, 1], con |πn| → 0, peri 6= j,

limn→∞

E[∣∣[Bi, Bj

]πnt

∣∣2] = 0.

Quindi esiste la variazione mutua [Bi, Bj]t e vale zero.

Proof. Prendiamo i = 1, j = 2. Abbiamo[B1, B2

]πnt

=∑k∈Jnt

(B1tnk+1−B1

tnk

)(B2tnk+1−B2

tnk

)quindi, con la solita notazione ∆kB

i = Bitnk+1−Bi

tnk,

E[∣∣[B1, B2

]πnt

∣∣2] =∑k,h∈Jnt

E[∆kB

1∆kB2∆hB

1∆hB2]

=∑k,h∈Jnt

E[∆kB

1∆hB1]E[∆kB

2∆hB2]

per l’indipendenza delle componenti. Se h 6= k, E [∆kB1∆hB

1] = 0. Quindi

E[∣∣[B1, B2

]πnt

∣∣2] =∑k∈Jnt

E[(

∆kB1)2]E[(

∆kB2)2]

=∑k∈Jnt

(tnk+1 − tnk

)2

da cui è facile dedurre la tesi.In conclusione, la variazione quadratica congiunta di un moto browniano B =(

B1, ..., Bd)in Rd è [Bi, Bj]t = δijt.

Page 118: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

118 CAPITOLO 5. LA FORMULA DI ITÔ

Gli integrali stocastici

Teorema 31 Sia B =(B1, ..., Bd

)un moto browniano in Rd. Siano Z1, Z2 due proces-

si di classe Λ2. Sia (πn) una successione di partizioni di [0, 1], con |πn| → 0. Allora, perogni i, j = 1, 2 (anche i = j) e per ogni t, la successione di v.a.

[∫ ·0Z1sdB

is,∫ ·

0Z2sdB

js

]πnt

converge in probabilità ed il limite vale[∫ ·0

Z1sdB

is,

∫ ·0

Z2sdB

js

]t

= δij

∫ t

0

Z1sZ

2sds.

La dimostrazione completa è piuttosto lunga. Accontentiamoci di comprendere duecasi particolari. Il primo è quando Z1, Z2 sono semplicemente due costanti, che senzarestrizione prendiamo pari ad uno. In questo caso la formula si riduce a [Bi, Bj]t = tδij,che abbiamo già dimostrato. Il secondo è il caso in cui Z1, Z2 sono processi continui.Non diamo la dimostrazione completa nemmeno in questo caso particolare, ma solol’idea. Presa una successione di partizioni πn, lungo essa le componenti del motobrowniano hanno variazione quadratica e mutua, con [Bi, Bj]t = tδij. Usando unanalogo per processi stocastici della Proposizione 43, perte (ii), abbiamo

limn→∞

∑k∈Jπnt

Z1tniZ2tni

(Bitnk+1−Bi

tnk

)(Bjtnk+1−Bj

tnk

)=

∫ t

0

Z1sZ

2sds.

Ma ∑k∈Jπnt

Z1tniZ2tni

(Bitnk+1−Bi

tnk

)(Bjtnk+1−Bj

tnk

)=∑i∈Jπnt

∫ tni+1

tni

Z1tnidBi

s

∫ tni+1

tni

Z2tnidBj

s

è circa uguale a[∫ ·0

Z1sdB

is,

∫ ·0

Z2sdB

js

]πnt

=∑i∈Jπnt

∫ tni+1

tni

Z1sdB

is

∫ tni+1

tni

Z2sdB

js .

Con un po’di fatica si può controllare il resto e completare la dimostrazione.Il caso generale richiede ad esempio di sviluppare più teoria sulla variazione quadrat-

ica in sé, includendo un teorema di dipendenza continua dai processi dei quali si calcola.In tal modo, avendo il risultato per Zi continui, lo si estende a Zi di classe Λ2. I dettaglisono troppo numerosi per cui li omettiamo.

I processi di Itô

Sia B un moto browniano in Rn rispetto ad una filtrazione (Ft)t≥0.

Page 119: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

5.2. APPLICAZIONE AI PROCESSI STOCASTICI 119

Definizione 19 Chiamiamo processo di Itô in Rd un processo X = (Xt)t∈[0,T ] a valoriin Rd della forma

Xt = X0 +

∫ t

0

bsds+

∫ t

0

σsdBs

con X0 misurabile rispetto a F0, b un processo vettoriale in Rd di classe Λ1B (cioè

progressivamente misurabile e tale che∫ T

0|bs| ds < ∞ q.c.), σ processo matriciale in

Rn×d di classe Λ2B. Per componenti,

X it = X i

0 +

∫ t

0

bisds+n∑k=1

∫ t

0

σiks dBks .

Scriveremo anchedXt = btdt+ σtdBt.

Le componenti dei processi di Itô sono somma di processi continui a variazionelimitata (il termineX i

0+∫ t

0bisds) e di martingale locali. Per questo sono semimartingale.

Per calcolare la loro variazione quadratica abbiamo bisogno dei seguenti lemmi. Sia(πn) una successione di partizioni di [0, 1], con |πn| → 0.

Lemma 9 Nelle ipotesi precedenti, preso k = 1, ..., d, Vt :=∫ t

0bksds ha variazione

quadratica nulla lungo (πn) ([V, V ]πnt converge in probabilità a zero, per ogni t ∈ [0, 1]).

Proof. Basta osservare che le traiettorie di V sono continue e BV ed applicare laProposizione 22; va solo curato il fatto che, dato t ∈ [0, T ], le partizioni πn non sonopartizioni di [0, t]; ma la dimostrazione è la stessa. Per completezza svolgiamo il contoesplicitamente:

[V, V ]πnt =∑i∈Jπnt

(Vtni+1 − Vtni

)2

≤ maxi∈Jπnt

∣∣∣Vtni+1 − Vtni ∣∣∣ ∑i∈Jπnt

∣∣∣Vtni+1 − Vtni ∣∣∣≤ max

i∈JπnT

∣∣∣Vtni+1 − Vtni ∣∣∣ ∑i∈JπnT

∫ tni+1

tni

bksds = maxi∈JπnT

∣∣∣Vtni+1 − Vtni ∣∣∣ ∫ T

0

bksds.

Ora basta osservare che maxi∈JπnT

∣∣∣Vtni+1 − Vtni ∣∣∣ tende a zero q.c. perché le traiettorie diV sono uniformemente continue. Quindi [V, V ]πnt converge in probabilità a zero.

Lemma 10 Siano V ed M due processi continui a valori reali, V avente variazionequadratica nulla lungo πn, M variazione quadratica [M,M ]t. Allora M + V ha vari-azione quadratica [M,M ]t.

Page 120: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

120 CAPITOLO 5. LA FORMULA DI ITÔ

Proof. E’immediato verificare che

[M + V,M + V ]πnt = [M,M ]πnt + [V, V ]πnt + 2 [M,V ]πnt

dove, come sopra, [M,V ]πnt =∑

i∈Jπnt

(Mtni+1

−Mtni

)(Vtni+1 − Vtni

). Basta quindi di-

mostrare che [M,V ]πnt tende a zero in probabilità. Ma si verifica immediatamenteanche la disuguaglianza

|[M,V ]πnt | ≤√

[M,M ]πnt

√[V, V ]πnt

e quindi [M,V ]πnt → 0 in probabilità (si verifichi che il prodotto di una successione con-vergente in probabilità ed una infinitesima in probabilità è infinitesimo in probabilità).

Teorema 32 Sia X = (Xt)t∈[0,T ] un processo di Itô in Rd della forma

Xt = X0 +

∫ t

0

bsds+

∫ t

0

σsdBs

con b in Rd di classe Λ1B e σ in Rn×d di classe Λ2

B. Allora X ha variazione quadraticacongiunta; precisamente, per ogni i, j = 1, ..., d e per ogni t, la successione di v.a.[X i, Xj]

πnt converge in probabilità ed il limite vale

[X i, Xj

]t

=

∫ t

0

σiks σjks ds =

∫ t

0

(σsσ

Ts

)ijds.

Proof. L’operazione [·, ·]πnt è lineare in ambo gli argomenti, quindi, posto V it = X i

0 +∫ t0bisds, M

ikt =

∫ t0σiks dB

ks , vale[

X i, Xj]πnt

=[V i, Xj

]πnt

+[X i, V j

]πnt−[V i, V j

]πnt

+∑k,k′

[M ik,M jk′

]πnt.

I primi tre termini a destra tendono a zero per i due lemmi precedenti. Usando poi ilteorema sulla variazione quadratica degli integrali di Itô,

P − limn→∞

[M ik,M jk′

]πnt

= δkk′

∫ t

0

σiks σjk′

s ds

quindi

P − limn→∞

[X i, Xj

]πnt

=n∑k=1

∫ t

0

σiks σjks ds.

Page 121: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

5.2. APPLICAZIONE AI PROCESSI STOCASTICI 121

Osservazione 25 Osserviamo che la traccia della matrice ([X i, Xj]t)ij vale

Tr([X i, Xj

]t

)ij

=

∫ t

0

‖σs‖2HS ds.

C’è una forte somiglianza tra le formule in valore atteso quadratico e quelle in vari-

azione quadratica (si ricordi la formula di isometria E[∣∣∣∫ t0 σsdBs

∣∣∣2] = E[∫ t

0‖σs‖2

HS ds]).

5.2.2 Integrale stocastico rispetto ad un processo di Itô

Sia X = (Xt)t∈[0,T ] un processo di Itô in Rd della forma

Xt = X0 +

∫ t

0

bsds+

∫ t

0

σsdBs

con b in Rd di classe Λ1B e σ in Rn×d di classe Λ2

B. Per componenti,

X it = X i

0 +

∫ t

0

bisds+n∑k=1

∫ t

0

σiks dBks .

Sia Y un processo di classe Λ2B. Allora, per ogni i = 1, ..., d, poniamo∫ t

0

YsdXis =

∫ t

0

Ysbisds+

n∑k=1

∫ t

0

Ysσiks dB

ks .

Proposizione 47 Se Y è continuo,∫ t

0

YsdXis = lim

n→∞

∑k∈Jπnt

Ytnk

(X itnk+1−X i

tnk

).

Proof. Vale ∑k∈Jπnt

Ytnk

(X itnk+1−X i

tnk

)=

∑k∈Jπnt

Ytnk

∫ tnk+1

tnk

bisds+

n∑j=1

∑k∈Jπnt

Ytnk

∫ tnk+1

tnk

σijs dBjs

=∑k∈Jπnt

∫ tnk+1

tnk

Ytnk bisds+

n∑j=1

∑k∈Jπnt

∫ tnk+1

tnk

Ytnkσijs dB

js

(l’ultimo passaggio richiederebbe una dimostrazione che omettiamo)

=

∫ t

0

Y ns b

isds+

n∑j=1

∫ t

0

Y ns σ

ijs dB

js

dove Y ns è il processo che vale Ytnk su [tnk , t

nk+1). Basta ora usare la continuità di Y ed

alcuni argomenti di passaggio al limite tradizionali.

Page 122: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

122 CAPITOLO 5. LA FORMULA DI ITÔ

5.3 Formula di Itô

Teorema 33 Sia f : [0, 1]×Rd → R una funzione di classe C1,2 ed X = (Xt)t∈[0,T ] unprocesso di Itô in Rd, della forma

Xt = X0 +

∫ t

0

bsds+

∫ t

0

σsdBs

con b in Rd di classe Λ1B e σ in Rn×d di classe Λ2

B. Allora

f (t,Xt) = f (0, X0) +

∫ t

0

∂f

∂t(s,Xs) ds+

d∑i=1

∫ t

0

∂f

∂xi(s,Xs) b

isds

+d∑i=1

n∑k=1

∫ t

0

∂f

∂xi(s,Xs)σ

iks dB

ks

+1

2

d∑i,j=1

n∑k=1

∫ t

0

∂2f

∂xi∂xj(s,Xs)σ

iks σ

jks ds.

In particolare, f (t,Xt) è un processo di Itô.

Osservazione 26 Si noti che

d∑i,j=1

n∑k=1

∂2f

∂xi∂xj(Xs)σ

iks σ

jks = Trace

(σsσ

TsD

2f (Xs)).

Proof. Partiamo dal risultato del Corollario 12. L’ipotesi, che X = (Xt)t∈[0,1] abbiavariazione quadratica congiunta lungo una successione di partizioni, è verificata peril Teorema 32. Indichiamo poi con (πn) una successione lungo cui abbiano variazionequadratica congiunta quasi tutte le traiettorie di X. Per il Corollario 12, sappiamo cheper ogni t ∈ [0, 1], esiste il limite in probabilità e q.c.

limn→∞

∑k∈Jπnt

d∑i=1

∂f

∂xi(tnk , Xtnk

) (X itnk+1−X i

tnk

)

che abbiamo indicato con∫ t

0∇f (s,Xs) ·dXs. Ma per la Proposizione 47, esiste il limite

in probabilità di ciascun addendo∑

k∈Jπnt∂f∂xi

(tnk , Xtnk

) (X itnk+1−X i

tnk

)della precedente

somma e vale∫ t

0

∂f

∂xi(s,Xs) dX

is =

∫ t

0

∂f

∂xi(s,Xs) b

isds+

n∑k=1

∫ t

0

∂f

∂xi(s,Xs)σ

iks dB

ks .

Page 123: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

5.3. FORMULA DI ITÔ 123

Pertanto, possiamo riscrivere la formula dimostrata nel Corollario 12 nella forma

f (t,Xt) = f (0, X0) +

∫ t

0

∂f

∂t(s,Xs) ds

+d∑i=1

∫ t

0

∂f

∂xi(s,Xs) b

isds+

d∑i=1

n∑k=1

∫ t

0

∂f

∂xi(s,Xs)σ

iks dB

ks

+1

2

d∑i,j=1

∫ t

0

∂2f

∂xi∂xj(s,Xs) d

[X i, Xj

]s.

Infine, dal Teorema 32 sappiamo che

[X i, Xj

]t

=

∫ t

0

σiks σjks ds

Basta allora usare il fatto che∫ t

0∂2f

∂xi∂xj(s,Xs) d [X i, Xj]s∫ t

0

∂2f

∂xi∂xj(s,Xs) d

[X i, Xj

]s

=

∫ t

0

∂2f

∂xi∂xj(s,Xs)σ

iks σ

jks ds

che si può dimostrare prima nel caso in cui σ è continuo (in tal caso [X i, Xj]t è differen-

ziabile e la misura d [X i, Xj]s èd[Xi,Xj]

s

dsds), poi nel caso generale per approssimazione.

La dimostrazione è completa.

5.3.1 Notazione differenziale

E’uso scrivere molte delle equazioni precedenti in forma differenziale, pur intendendocon questo la forma integrale corrispondente. Ad esempio, un processo di Itô in Rd èun processo X = (Xt)t∈[0,T ] a valori in Rd che ha differenziale stocastico della forma

dXt = btdt+ σtdBt

e a formula di Itô corrispondente, per f ∈ C1,2, è

df (t,Xt) =∂f

∂t(t,Xt) dt+

d∑i=1

∂f

∂xi(t,Xt) b

itdt

+

d∑i=1

n∑k=1

∂f

∂xi(t,Xt)σ

ikt dB

kt

+1

2

d∑i,j=1

n∑k=1

∂2f

∂xi∂xj(t,Xt)σ

ikt σ

jkt dt.

Page 124: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

124 CAPITOLO 5. LA FORMULA DI ITÔ

Si tratta chiaramente di una notazione, ma è utile per sveltire i calcoli. Anche utile ècontrarre il termine bitdt+

∑nk=1 σ

ikt dB

kt in dX

it per cui scriveremo

df (t,Xt) =∂f

∂t(t,Xt) dt+

d∑i=1

∂f

∂xi(t,Xt) dX

it

+1

2

d∑i,j=1

n∑k=1

∂2f

∂xi∂xj(t,Xt)σ

ikt σ

jkt dt.

Infine, può essere utile sostituire∑n

k=1 σikt σ

jkt dt con d [X i, Xj]t e scrivere

df (t,Xt) =∂f

∂t(t,Xt) dt+

d∑i=1

∂f

∂xi(t,Xt) dX

it

+1

2

d∑i,j=1

∂2f

∂xi∂xj(t,Xt) d

[X i, Xj

]t.

Se poi, infine (ma questo è un molto informale) scriviamo

d[X i, Xj

]t

= dX itdX

jt

la formula assume una forma facilissima da ricordare:

df (t,Xt) =∂f

∂t(t,Xt) dt+

d∑i=1

∂f

∂xi(t,Xt) dX

it +

1

2

d∑i,j=1

∂2f

∂xi∂xj(t,Xt) dX

itdX

jt

in quanto sembra la riscrittura della formula di Taylor. Possiamo anche scrivere

df (t,Xt) =∂f

∂t(t,Xt) dt+∇f (t,Xt) · dXt +

1

2

⟨D2f (t,Xt) dXt, dXt

⟩.

Abbiamo un po’ rifatto il passaggio all’indietro, dai coeffi cienti espliciti b e σ delprocesso di Itô alla notazione con dX e d [X i, Xj]t. Ogni volta si può scegliere lapiù conveniente per svolgere i calcoli.

5.3.2 Esempi

Esempio 1. SedX i

t = bitdt+ σitdBt, i = 1, 2

allora

d(X1tX

2t

)= X1

t dX2t +X2

t dX1t + d

[X1, X2

]t

Page 125: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

5.3. FORMULA DI ITÔ 125

avendo usato la funzione

f(x1, x2

)= x1x2

∇f(x1, x2

)=

(x2, x1

)D2f

(x1, x2

)=

(0 11 0

).

Siccome d [X1, X2]t = σ1tσ

2tdt, troviamo

d(X1tX

2t

)= X1

t dX2t +X2

t dX1t + σ1

tσ2tdt.

Si può anche esplicitare nella forma

d(X1tX

2t

)= X1

t b2tdt+X1

t σ2tdBt +X2

t b1tdt+X2

t σ1tdBt + σ1

tσ2tdt

che però risulta meno interpretabile.Esempio 2. Se (in Rd)

dXt = btdt+ σtdBt,

allora

d |Xt|2 = 2XtdXt +d∑i=1

n∑k=1

σikt σikt dt

avendo usato la funzione

f (x) = |x|2

∇f (x) = 2x

D2f (x) = 2

(1 00 1

).

Page 126: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

126 CAPITOLO 5. LA FORMULA DI ITÔ

Page 127: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

Capitolo 6

Applicazioni della formula di Itô

6.1 Caratterizzazione del moto browniano secondoLévy

Ricordiamo che un moto browniano B =(B1, ..., Bd

)in Rd è una martingala continua e

vale [Bi, Bj]t = t ·δij. Il teorema di questa sezione dice che vale il viceversa. Vale anchese si suppone solamente la proprietà di martingala locale. Premettiamo un criterio diindipendenza.

Lemma 11 Dato (Ω,F , P ), sia G una sotto σ-algebra di F . Se un vettore aleatorioX in Rd ha la proprietà che la v.a. E

[eiλ·X |G

]è costante, per ogni λ ∈ Rd, allora X

è indipendente da G.

Proof. Innanzi tutto, se E[eiλ·X |G

]è costante, allora è pari a E

[eiλ·X

]. Quindi

E[1Ae

iλ·X] = E[eiλ·X

]P (A)

per ogni A ∈ G. Usiamo ora alcuni fatti sulla trasformata di Fourier. Ricirdiamo che,data ϕ ∈ L2

(Rd), è ben definita la sua trasformata di Fourier

ϕ (λ) =1

∫Rde−iλ·xϕ (x) dx

come funzione di L2(Rd), e che vale la formula di antitrasformata

ϕ (x) =

∫Rdeiλ·xϕ (λ) dλ.

Prendiamo allora ϕ ∈ L2(Rd)e la sua trasformata di Fourier ϕ ∈ L2

(Rd), integri-

amo ambo i membri dell’identità iniziale,∫Rdϕ (λ)E

[1Ae

iλ·X] dλ = P (A)

∫Rdϕ (λ)E

[eiλ·X

]dλ

127

Page 128: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

128 CAPITOLO 6. APPLICAZIONI DELLA FORMULA DI ITÔ

ed applichiamo Fubini

E

[1A

∫Rdϕ (λ) eiλ·Xdλ

]= P (A)E

[∫Rdϕ (λ) eiλ·Xdλ

].

Usando il fatto che∫Rd ϕ (λ) eiλ·Xdλ = ϕ (X) otteniamo

E [1Aϕ (X)] = P (A)E [ϕ (X)] .

Da qui l’indipendenza segue approssimando una generica indicatrice 1Γ, Γ ∈ B(Rd),

con funzioni ϕ ∈ L2(Rd).

Teorema 34 (caratterizzazione di P. Lévy) Sia M =(M1, ...,Md

)una martin-

gala continua vettoriale, rispetto alla filtrazione (Ft)t≥0, nulla in zero. Se [M i,M j]t =δijt allora M è un moto browniano vettoriale, rispetto a (Ft)t≥0.

Proof. Nota. In un punto della dimostrazione useremo la teoria generale dell’inte-grazione per martingale continue e la corrispondente formula di Itô, elementi che nonabbiamo completamente sviluppato. In realtà si tratta semplicemente della formula diItô del Corollario 12; ma dovremmo dimostrare che una qualsiasi martingala continuavettoriale ha variazione quadratica congiunta. Lo abbiamo fatto però per i processidi Itô e, osserviamo, quando useremo questo teorema di caratterizzazione nell’ambitodella formula di Girsanov, lì la martingala M sarà un processo di Itô. In conclusione,anche se la dimostrazione che svolgiamo ora non è del tutto completa, lo è nel caso cheverrà utilizzato in seguito.Basta verificare che, presi t ≥ s ≥ 0, il vettoreMt−Ms è gaussiano di media nulla e

covarianza t·Id, ed indipendente da Fs. Preso λ ∈ Rd, se verifichiamo che λ·(Mt −Ms)è una v.a. gaussiana N

(0, |λ|2 (t− s)

), allora Mt −Ms è gaussiano di media nulla e

covarianza t · Id. Usando il teorema di inversione delle funzioni caratteristiche, bastaverificare che

E[eiλ·(Mt−Ms)

]= e−

12|λ|2(t−s).

Cerchiamo di capire le proprietà di

Y λt := eiλ·Mt+

12|λ|2t

tramite la formula di Itô. Questa, per funzioni a valori complessi, segue le regole usuali,come si può verificare applicandola a parte reale e parte immaginaria. Usiamo, comegià detto, la versione del Corollario 12.

Page 129: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

6.2. IL TEOREMA DI GIRSANOV 129

Allora, presa f (t, x) = eiλ·x+ 12|λ|2t (∂f

∂t= 1

2|λ|2 f , ∇f = iλf , D2f = −λ ⊗ λf),

Y λt = f (t,Mt), abbiamo (qui usiamo in modo cruciale l’ipotesi [M i,M j]t = δijt)

dY λt =

1

2|λ|2 Y λ

t dt+ Y λt iλ · dMt −

1

2Y λt

d∑i,j=1

λiλjd[M i,M j

]t

=1

2|λ|2 Y λ

t dt+ Y λt iλ · dMt −

1

2Y λt

d∑i=1

λ2i dt

= Y λt iλ · dMt

ovvero

Y λt =

∫ t

0

Y λs iλ · dMs

Non abbiamo sviluppato la teoria dell’integrazione rispetto a martingale continue qual-siasi, ma possiamo immaginare che l’integrale

∫ t0Y λs iλ · dMs sia una martingala, se

l’integrando Y λs iλ soddisfa opportune ipotesi di sommabilità. Nel nostro caso Y

λs iλ è

addirittura limitato:∣∣Y λs iλ∣∣ =

∣∣∣eiλ·Mte12|λ|2tiλ

∣∣∣ = e12|λ|2t |λ| ≤ e

12|λ|2T |λ| .

In tal caso si può dimostrare che∫ t

0Y λs iλ · dMs, e quindi Y λ

t , è una martingala.Ma allora, per t ≥ s ≥ 0, E

[Y λt |Fs

]= Y λ

s , ovvero

E[eiλ·Mt|Fs

]= eiλ·Mse

12|λ|2se−

12|λ|2t

da cui

E[eiλ·(Mt−Ms)|Fs

]= E

[eiλ·Mte−iλ·Ms|Fs

]= e−iλ·MsE

[eiλ·Mt |Fs

]= e−

12|λ|2(t−s).

Ne segue E[eiλ·(Mt−Ms)

]= e−

12|λ|2(t−s), come volevamo dimostrare. Inoltre la v.a.

E[eiλ·(Mt−Ms)|Fs

]è costante, per ogni λ ∈ Rd e questo implica, per il lemma precedente,

che Mt −Ms è indipendente da Fs.

6.2 Il teorema di Girsanov

6.2.1 Cambi di misura

Ci accingiamo ad eseguire un’operazione non comune fino ad ora: modificare la prob-abilità P su (Ω,F) tramite una densità. Premettiamo quindi alcune semplici idee perinquadrare il problema.

Page 130: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

130 CAPITOLO 6. APPLICAZIONI DELLA FORMULA DI ITÔ

Sia (Ω,F) uno spazio probabilizzabile. Fino ad ora abbiamo sempre fissato unamisura di probabilità P su di esso ed indicato con E il valore atteso corrispondente.D’ora in poi, quando servirà, lo indicheremo con EP per evidenziare che si tratta delvalore atteso calcolato tramite la misura P .Supponiamo di avere due diverse misure di probabilità P eQ, su (Ω,F). Ricordiamo

che Q << P (Q assolutamente continua rispetto a P ) se P (A) = 0 implica Q (A) = 0,A ∈ F , e questo equivale all’esistenza di una densità di probabilità ρ = ∂Q

∂P, ovvero una

funzione non negativa misurabile ρ : Ω→ [0,∞) tale che

Q (A) =

∫A

ρdP

per ogni A ∈ F . OppureEQ [X] = EP [ρX]

per ogni v.a. X limitata (ed altre). Scriviamo anche dQ = ρdP .Le misure P e Q si dicono equivalenti se Q << P e P << Q. Se Q << P e ρ = ∂Q

∂P

è strettamente positiva q.c., allora sono equivalenti: ρ−1 è ∂P∂Q:

EQ[ρ−1X

]= EP

[ρρ−1X

]= EP [X]

per ogni v.a. X limitata.Il concetto di martingala cambia a seconda della misura: un processo può essere

una martingala rispetto a P e non rispetto a Q (il valore atteso, che dipende dallamisura scelta, entra in gioco nella definizione di martingala).Invece il concetto di convergenza in probabilità non dipende dalla misura, se si

considerano misure equivalenti. Infatti, se XnP→ X allora per ogni ε > 0

limn→∞

P (|Xn −X| > ε) = 0

e quindi

Q (|Xn −X| > ε) =

∫|Xn−X|>ε

ρdP → 0

per l’assoluta continuità dell’integrale. E viceversa.Pertanto il concetto di variazione quadratica di un processo stocastico non dipende

dalla misura, se si considerano misure equivalenti, essendo legato alla misura soloattraverso una condizione di convergenza in probabilità.Circa le classi per cui definiamo integrali stocastici, la classe M2 dipende dalla

misura P di riferimento, mentre la classe Λ2 no se si considerano misure equivalenti.

Page 131: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

6.2. IL TEOREMA DI GIRSANOV 131

6.2.2 Martingale esponenziali e misure equivalenti

Sia (Ω,F , P ) uno spazio probabilizzato, (Ft)t≥0 una filtrazione, B un moto brownianoin Rd. Sia (Xt)t∈[0,T ] un processo in Rd di classe Λ2. Consideriamo il processo stocastico

Lt =

∫ t

0

Xs · dBs

avente variazione quadratica

[L,L]t =

∫ t

0

|Xs|2 ds.

Consideriamo poi il processo stocastico

ρt = eLt−12

[L,L]t = e∫ t0 Xs·dBs−

12

∫ t0 |Xs|

2ds.

Vale:

Lemma 12

ρt =

∫ t

0

ρsXs · dBs.

In generale,E [ρT ] ≤ 1.

Se E[∫ T

0ρ2s |Xs|2 ds

]<∞, allora ρt è una martingala, rispetto a P , ed in particolare

E [ρT ] = 1.

Proof. Abbiamo che ρt = f (Yt) dove f (x) = ex e

dYt = Xt · dBt −1

2|Xt|2 dt

quindi, per la formula di Itô,

dρt = f ′ (Yt) dYt +1

2f ′′ (Yt) d [Y, Y ]t

= eYt(Xt · dBt −

1

2|Xt|2 dt

)+

1

2eYt |Xt|2 dt

= eYtXt · dBt.

Prendiamo poi τn = inf t > 0 : ρt ≥ n (infinito altrimenti). Vale

ρt∧τn =

∫ t

0

1s≤τnρsXs · dBs

Page 132: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

132 CAPITOLO 6. APPLICAZIONI DELLA FORMULA DI ITÔ

ed ora 1s≤τnρs |Xs| è limitato (si ricordi che X è limitato) e quindi di classeM2, quindiρt∧τn è una martingala e vale E

[ρt∧τn

]= E [ρ0] = 1. Per Fatou, usando la continuità

delle traiettorie di ρt,

E [ρt] = E[

limn→∞

ρt∧τn

]≤ 1.

Le restanti affermazioni sono ovvie.Esaminiamo delle condizioni suffi cienti affi nché ρt sia una martingala.

Proposizione 48 Se X è limitato (esiste C > 0 tale che |Xt| ≤ C per ogni t q.c.),allora ρt è una martingala. Vale inoltre

supt∈[0,T ]

E [ρpt ] <∞

per ogni p ≥ 1.

Proof. Vogliamo usare la condizione suffi ciente E[∫ T

0ρ2s |Xs|2 ds

]< ∞. Per l’ipotesi

su X, basta verificare che E[∫ T

0ρ2sds]<∞. Abbiamo

ρ2t = e2Lt−[L,L]t = e2Lt−α[L,L]teβ[L,L]t

con α− β = 1. Allora

E[ρ2t

]≤ E

[e2pLt−αp[L,L]t

]1/pE[eβp

′[L,L]t

]1/p′

Scriviamoe2pLt−αp[L,L]t = e2pLt− α

4p[2pL,2pL]t

e scegliamo α e p in modo che sia α4p

= 12. Applicando il lemma precedente al processo

2pLt (cioè 2pXt) abbiamo E[e2pLt−αp[L,L]t

]≤ 1. Quindi

E[ρ2t

]≤ E

[eβp

′[L,L]t

]1/p′

.

Ma X è limitato da C, quindi anche [L,L]t da C2T , da cui supt∈[0,T ] E [ρ2

t ] <∞.Con la stessa dimostrazione, solo simbolicamente più complicata, si verifica che

supt∈[0,T ] E [ρpt ] <∞ per ogni p ≥ 1. La dimostrazione è completa.Con un po’più di sforzo (ragionamenti simili ma non più basati sulla condizione

suffi ciente E[∫ T

0ρ2s |Xs|2 ds

]< ∞), si può dimostrare il seguente criterio, detto di

Novikov.

Teorema 35 SeE[eλ∫ T0 |Xs|

2ds]<∞

per qualche λ > 12allora vale E

[∫ T0ρ2s |Xs|2 ds

]<∞ e quindi ρt è una martingala.

Page 133: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

6.2. IL TEOREMA DI GIRSANOV 133

La martingala esponenziale ρt = eLt−12

[L,L]t (quando è appunto una martingala)permette di definire una nuova misura su (Ω,F). Per la proprietà di martingala,E [ρT ] = 1. La funzione ρT : Ω→ R è non negativa e tale che

∫ΩρTdP = 1, cioè è una

densità di probabilità, per cui possiamo introdurre la nuova misura di probabilità Q su(Ω,F) definita da

dQ = ρTdP

ovvero

EQ [X] =

∫Ω

XdQ =

∫Ω

XρTdP = EP [XρT ]

per ogni v.a. X limitata. Abbiamo ρT > 0, quindi P e Q sono equivalenti (sezioneprecedente).Useremo il seguente fatto.

Lemma 13 Se Y è una v.a. Ft-misurabile e limitata, t ∈ [0, T ], allora

EQ [Y ] = EP [Y ρt]

ovvero dQ = ρtdP limitatamente agli eventi A ∈ Ft. Scriveremo

ρt =dQ

dP

∣∣∣∣Ft.

Proof. Per la proprietà di martingala di ρt e per definizione di Q,

EQ [Y ] = EP [Y ρT ] = EP [Y ρt] .

Osservazione 27 Il risultato vale anche per v.a. Y , Ft-misurabili, tali che uno deidue valori attesi EQ [Y ] o EP [Y ρt] sia finito. Basta scomporre Y in parte positiva enegativa ed approssimare dal basso con troncamenti limitati.

Osservazione 28 Se avessimo preso dall’inizio T = +∞, avendo così una martingalaρt definita per tutti i tempi t ≥ 0, avremmo potuto introdurre inizialmente una famigliadi misure dQT = ρTdP indicizzata da T ≥ 0, osservando poi però che, in base allemma,

dQT

dP

∣∣∣∣Ft

=dQt

dP

∣∣∣∣Ft

per ogni T ≥ t ≥ 0. Possiamo quindi dire che esiste una funzione Q :∨t≥0

Ft → [0, 1],

σ-additiva su ogni Ft, tale che dQdP

∣∣Ft

= ρt per ogni t ≥ 0. Anche per questo nonabbiamo sottolineato la dipendenza da T nella notazione Q, precedentemente.

Page 134: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

134 CAPITOLO 6. APPLICAZIONI DELLA FORMULA DI ITÔ

6.2.3 Teorema di Girsanov

Il risultato che stiamo per esporre vale più in generale ma lo formuliamo e dimostriamoin un caso particolare per evitare troppi dettagli tecnici.Sia (Ω,F , P ) uno spazio probabilizzato, (Ft)t≥0 una filtrazione, B un moto brown-

iano in Rd. Sia (Xt)t∈[0,T ] un processo in Rd di classe Λ2. Supponiamo per semplicitàche sia limitato: esiste C > 0 tale che |Xt| ≤ C per ogni t q.c.; quindi in realtà è diclasse M2. Consideriamo come sopra il processo stocastico

Lt =

∫ t

0

Xs · dBs

che, nelle attuali ipotesi, è una martingala e introduciamo la martingala esponenziale(Proposizione 48)

ρt = eLt−12

[L,L]t .

Come detto sopra, questa definisce la misura equivalente

dQ = ρTdP.

Lemma 14 Sia M un processo stocastico adattato. Se ρtMt è una martingala rispettoa P , allora Mt è una martingala rispetto a Q.

Proof. Intanto bisogna verificare che M sia integrabile rispetto a Q. Per ogni n ∈ Nvale, in virtù del Lemma 13,

EQ [|Mt| ∧ n] = EP [ρt (|Mt| ∧ n)]

e quindi per convergenza monotona

EQ [|Mt|] = EP [ρt |Mt|]

ma EP [ρt |Mt|] = EP [|ρtMt|] è finito perché ρtMt è integrabile rispetto a P (è unaP -martingala). Quindi EQ [|Mt|] è finito.Dobbiamo ora dimostrare che, presi t ≥ s ≥ 0,

EQ [MtZ] = EQ [MsZ]

per ogni v.a. Fs-misurabile e limitata Z. Usando il Lemma 13 (si veda anche l’osser-vazione che lo segue) e l’ipotesi che ρtMt sia una P -martingala, vale

EQ [MtZ] = EP [ρtMtZ] = EP [ρsMsZ] = EQ [MsZ] .

Page 135: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

6.2. IL TEOREMA DI GIRSANOV 135

Lemma 15 Il processo stocastico

Mt := Bt −∫ t

0

Xsds.

è una martingala continua rispetto a Q ed (Ft)t≥0. Vale[M i,M j

]t

= δijt

(si noti che questa è la variazione mutua sia rispetto a P che Q).

Proof. La continuità di M è nota. Per dimostrare che M è una martingala rispetto aQ basta verificare, per il Lemma 14, che ρtMt è una martingala rispetto a P .Sappiamo poi che dρt = ρtXt · dBt e che dMt = dBt −Xtds. Quindi per la formula

di Itôd(ρtM

it

)= M i

tρtXt · dBt + ρt(dBi

t −X itdt)

+ d[ρ,M i

]t.

Ora, posto Y jt =

∫ t0ρsX

jsdB

js , così che ρt =

∑j Y

jt , vale

[ρ,M i

]t

=∑j

[Y j,M i

]t

=∑j

δij

∫ t

0

ρsXjsds =

∫ t

0

ρsXisds.

Quindi

d(ρtM

it

)= M i

tρtXt · dBt + ρt(dBi

t −X itdt)

+ ρtXitdt

= M itρtXt · dBt + ρtdB

it

ovvero

ρtMit = ρ0M

i0 +

∫ t

0

M isρsXs · dBs +

∫ t

0

ρsdBis.

Per avere che ρtMit è una martingala, basta sapere che M

itρtXt e ρt sono di classe M

2

rispetto a P . La seconda affermazione discende subito dalla stima della Proposizione48. Per la prima è suffi ciente, ricordando che X è limitato, verificare che

E

[∫ T

0

∣∣M it

∣∣2 ρ2tdt

]<∞.

Vale

E

[∫ T

0

∣∣M it

∣∣2 ρ2tdt

]≤ E

[∫ T

0

∣∣M it

∣∣4 dt]1/2

E

[∫ T

0

ρ4tdt

]1/2

.

Da un lato

E

[∫ T

0

ρ4tdt

]≤ sup

t∈[0,T ]

E[ρ4t

]<∞

Page 136: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

136 CAPITOLO 6. APPLICAZIONI DELLA FORMULA DI ITÔ

per quanto verificato poco sopra. Dall’altro,

E

[∫ T

0

∣∣M it

∣∣4 dt] ≤ 4E

[∫ T

0

∣∣Bit

∣∣4 dt]+ 4E

[∫ T

0

∣∣∣∣∫ t

0

X isds

∣∣∣∣4 dt]

≤ 4 supt∈[0,T ]

E[∣∣Bi

t

∣∣4]+ 4E

[∫ T

0

(∫ t

0

∣∣X is

∣∣ ds)4

dt

].

Il primo termine è limitato per note proprietà di integrabilità del moto browniano, ilsecondo perché X è limitato.L’affermazione sulla variazione quadratica è nota (se vista rispetto a P ). Il fatto

rilevante è che valga anche rispetto a Q, fatto generale essendo P e Q equivalenti. Ladimostrazione è completa.Mettendo insieme questi lemmi ed il criterio di Lévy abbiamo dimostrato il seguente:

Teorema 36 (Girsanov) Il processo stocastico

Bt := Bt −∫ t

0

Xsds.

è un moto browniano rispetto a Q ed (Ft)t≥0.

Page 137: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

Capitolo 7

Equazioni differenziali stocastiche

7.1 Richiami sulle equazioni differenziali ordinarie

Il classico problema di Cauchy in Rd, su un intervallo di tempo limitato [0, T ], ha laforma

dxtdt

= f (t, xt) t ∈ [0, T ]x|t=0 = x0

. (7.1)

La sua forma integrale è

xt = x0 +

∫ t

0

f (s, xs) ds t ∈ [0, T ] . (7.2)

Supponiamo f : [0, T ] × Rd → Rd almeno continua. Una funzione x· : [0, T ] → Rdsi dice soluzione di (7.1) se è di classe C1

([0, T ] ;Rd

)e soddisfa le condizioni scritte

in (7.1). Si dice soluzione di (7.2) se è di classe C([0, T ] ;Rd

)e soddisfa l’equazione

integrale (7.2). Si verifica senza diffi coltà che una soluzione di (7.1) è anche soluzionedi (7.2), e che una soluzione di (7.2) è (grazie a (7.2) stessa) di classe C1

([0, T ] ;Rd

)ed

è soluzione di (7.1). Quindi le due formulazioni sono equivalenti; ma la formulazioneintegrale permette di lavorare nello spazio più grande C

([0, T ] ;Rd

), o se si vuole,

permette di lavorare con meno regolarità (un fatto chiave in vista del caso stocastico).Ricordiamo alcuni risultati ed alcune tecniche. Introduciamo, la seguente ipotesi:

f continua, esiste L > 0 tale che (7.3)

|f (t, x)− f (t, y)| ≤ L |x− y| per ogni t ∈ [0, T ] e x, y ∈ Rd.

Proposizione 49 Supponiamo (7.3). Nella classe C([0, T ] ;Rd

)c’è unicità per (7.2).

Proof. Siano x1 e x2 due soluzioni e sia y = x1 − x2. Abbiamo

yt =

∫ t

0

(f(s, x1

s

)− f

(s, x2

s

))ds

137

Page 138: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

138 CAPITOLO 7. EQUAZIONI DIFFERENZIALI STOCASTICHE

da cui

|yt| ≤∫ t

0

∣∣f (s, x1s

)− f

(s, x2

s

)∣∣ ds ≤ L

∫ t

0

∣∣x1s − x2

s

∣∣ ds = L

∫ t

0

|ys| ds.

Ricordiamo il Lemma di Gronwall: se vt, at, t ∈ [0, T ], sono funzioni non negative chesoddisfano

vt ≤ v0 +

∫ t

0

asvsds, t ∈ [0, T ]

alloravt ≤ v0e

∫ t0 asds, t ∈ [0, T ] .

Applicato al nostro caso produce |yt| ≤ 0, da cui x1t − x2

t , per ogni t ∈ [0, T ]. Ladimostrazione è completa.

Teorema 37 Supponiamo (7.3). Nella classe C([0, T ] ;Rd

)c’è esistenza per (7.2).

Proof. Ricordiamo due dimostrazioni.1. Dimostrazione col principio delle contrazioni. Per ogni τ ∈ [0, T ], consideriamo

lo spazio Xτ = C([0, τ ] ;Rd

)e l’applicazione Γτ : Xτ → Xτ definita da

Γτ (y·) (t) = x0 +

∫ t

0

f (s, ys) ds.

Su Xτ consideriamo la metrica dτ (y1, y2) = maxt∈[0,τ ] |y1t − y2

t |. Vale

Γτ(y1)

(t)− Γτ(y2)

(t) =

∫ t

0

(f(s, y1

s

)− f

(s, y2

s

))ds

da cui, come sopra,

∣∣Γτ (y1)

(t)− Γτ(y2)

(t)∣∣ ≤ L

∫ t

0

∣∣y1s − y2

s

∣∣ ds.Possiamo ulteriormente maggiorare con

≤ Ltmaxt∈[0,t]

∣∣y1t − y2

t

∣∣ ≤ Lτdτ(y1, y2

).

Abbiamo dimostrato quindi che

dτ(Γτ(y1),Γτ

(y2))≤ Lτdτ

(y1, y2

).

Se prendiamo τ in modo che Lτ < 1, l’applicazione Γτ è una contrazione e quindi haun unico punto fisso in Xτ , ovvero c’è una ed una sola funzione x ∈ Xτ che risolve(7.2), limitatamente ai tempi t ∈ [0, τ ].

Page 139: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

7.1. RICHIAMI SULLE EQUAZIONI DIFFERENZIALI ORDINARIE 139

Si deve poi ripetere il procedimento su un intervallo della forma [τ , τ 2] con datoiniziale al tempo τ dato dal valore xτ della soluzione trovata su [0, τ ]. Si scopre che,grazie all’ipotesi (7.3), si può prendere τ 2 = 2τ e provare che esiste una sola funzione x ∈C([τ , 2τ ] ;Rd

)che risolve (7.2), per tempi t ∈ [τ , 2τ ], con dato iniziale xτ . Incollandole,

si trova una soluzione x ∈ C([0, 2τ ] ;Rd

)che risolve (7.2), per tempi t ∈ [0, 2τ ], con

dato iniziale x0. Procedendo nello stesso modo su intervalli successivi, si ricopre [0, T ]in un numero finito di passi. Questa dimostrazione, per inciso, fornisce anche l’unicità.2. Dimostrazione con le approssimazioni successive. Definiamo una successione di

funzioni xn· ∈ C([0, T ] ;Rd

)per ricorrenza, ponendo x0

· = x0 e, per n ≥ 0,

xn+1t = x0 +

∫ t

0

f (s, xns ) ds t ∈ [0, T ] .

Con gli stessi calcoli fatti al punto precedente, si verifica che

dτ(xn+1, xn

)≤ Lτdτ

(xn, xn−1

).

Quindidτ(xn+1, xn

)≤ (Lτ)n dτ

(x1, x0

).

Da qui è facile dedurre che (xn) è di Cauchy in Xτ , se si prende, come sopra, τ in modoche sia Lτ < 1. Lo spazio Xτ è completo, quindi xn → x ∈ Xτ e si verifica facilmenteche x risolve (7.2) su [0, τ ]. Il procedimento si deve poi ripetere su intervallini successivicome nella dimostrazione precedente. In realtà, la dimostrazione fatta ora non è altroche la dimostrazione del principio delle contrazioni.3. Dimostrazione in un solo passo. Si può sviluppare una variante delle di-

mostrazioni precedenti, es. della 2, che agisce in un solo passo. Si consideri sullospazio XT la distanza δλ (y1, y2) = maxt∈[0,τ ]

(e−λt |y1

t − y2t |), per ogni λ ≥ 0. Con le

notazione del punto 2, abbiamo come sopra∣∣xn+1t − xnt

∣∣ ≤ ∫ t

0

∣∣f (s, xns )− f(s, xn−1

s

)∣∣ ds ≤ L

∫ t

0

∣∣xns − xn−1s

∣∣ dsma ora maggioriamo stimiamo

e−λt∣∣xn+1t − xnt

∣∣ ≤ L

∫ t

0

e−λ(t−s)e−λs∣∣xns − xn−1

s

∣∣ ds≤ L max

s∈[0,t]

(e−λs

∣∣xns − xn−1s

∣∣) ∫ t

0

e−λ(t−s)ds

≤ λ−1Lδλ(xn, xn−1

)in quanto

∫ t0e−λ(t−s)ds = λ−1

(1− e−λt

). Quindi

δλ(xn+1, xn

)≤(λ−1L

)nδλ(x1, x0

).

Ora basta prendere λ = 2L. Naturalmente, le norme δ2L e dT sono equivalenti.

Page 140: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

140 CAPITOLO 7. EQUAZIONI DIFFERENZIALI STOCASTICHE

7.2 Equazioni differenziali stocastiche con noise ad-ditivo

Sia (Ω,F , P ) uno spazio probabilizzato, (Ft)t≥0 una filtrazione, B un moto brownianoin Rn. Chiameremo base stocastica la famiglia

(Ω,F , (Ft)t≥0 , P, (Bt)t≥0

).

Sia σ ∈ Rn×d una matrice. Vorremmo dare senso ad un’equazione della forma

dXt

dt= b (t,Xt) + σ

dBt

dt

dove b : [0, T ]× Rd → Rd.

Osservazione 29 L’idea da cui nasce questo tipo di equazione è la seguente. Si im-magina che il sistema fisico, economico, finanziario, biologico ecc. che stiamo esam-inando sia descritto da alcune leggi riassunte dall’equazione dXt

dt= f (t,Xt); ma che

questa descrizione non sia esaustiva, in quanto siano presenti delle perturbazioni chenon sappiamo descrivere con lo stesso gradi di precisione e che consideriamo causali.La scelta particolare del termine σ dBt

dtè dettata da queste sue caratteristiche intuitive:

gaussianità, media nulla, indipendenza istante per istante, invarianza temporale. Sisuggerisce di accontentarsi di comprendere intuitivamente queste affermazioni, vistoche la loro formalizzazione sarebbe diffi cile.

In analogia con quanto visto sopra, scriviamo la forma integrale

Xt = X0 +

∫ t

0

b (s,Xs) ds+ σBt, t ∈ [0, T ] . (7.4)

Questa ha perfettamente senso (tutti i termini sono ben definiti). Supponiamo che bsia almeno continua e che X0 sia un vettore aleatorio assegnato, definito su (Ω,F , P )a valori in Rd, F0-misurabile; e che σ ∈ Rn×d sia una matrice data.Possiamo anche fissare ω ∈ Ω e considerare l’equazione completamente determinis-

tica

xt = X0 (ω) +

∫ t

0

b (s, xs) ds+ σBt (ω) , t ∈ [0, T ] . (7.5)

Definizione 20 Fissata una base stocastica(Ω,F , (Ft)t≥0 , P, (Bt)t≥0

)ed una v.a. F0-

misurabileX0, chiamiamo soluzione forte di (7.4) ogni processo stocasticoX = (Xt)t∈[0,T ]

definito su (Ω,F , P ), continuo, adattato alla filtrazione (Ft)t≥0, che soddisfa (7.4)uniformemente in t ∈ [0, T ] con probabilità uno:

P

(Xt = X0 +

∫ t

0

b (s,Xs) ds+ σBt,∀t ∈ [0, T ]

)= 1.

Diciamo che c’è esistenza forte quando questo vale a partire da qualsiasi base stocasticae qualsiasi v.a. F0-misurabile X0.

Page 141: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

7.2. EQUAZIONI DIFFERENZIALI STOCASTICHE CON NOISE ADDITIVO 141

Ora che abbiamo dato una definizione precisa di soluzione, permettiamoci di intro-durre una notazione più leggera, a patto di ricordare sempre che si tratta solo di unanotazione. Scriveremo l’equazione (7.4) nella forma

dXt = b (t,Xt) dt+ σdBt.

Veniamo ai concetti di unicità, rilevanti per questa equazione.

Definizione 21 Diciamo che vale l’unicità forte (pathwise uniqueness, in lingua in-glese), se, data una qualsiasi base stocastica

(Ω,F , (Ft)t≥0 , P, (Bt)t≥0

)ed una qualsiasi

v.a. F0-misurabile X0, prese due soluzioni forti X1 e X2, esse sono indistinguibili.

Definizione 22 Diciamo che c’è unicità per quasi ogni ω se, data una qualsiasi basestocastica

(Ω,F , (Ft)t≥0 , P, (Bt)t≥0

)ed una qualsiasi v.a. F0-misurabile X0, esiste un

insieme di misura uno Ω0 ∈ F tale che, per ogni ω ∈ Ω0, l’equazione deterministica(7.5) ha unicità in C

([0, T ] ;Rd

).

Si può verificare che se c’è unicità per quasi ogni ω allora c’è unicità forte.

Teorema 38 Se b soddisfa l’ipotesi (7.3) c’è esistenza forte ed unicità forte, anziunicità per quasi ogni ω.

Proof. Introduciamo un problema ausiliario:

Yt = X0 +

∫ t

0

b (s, Ys + σBs) ds, t ∈ [0, T ] . (7.6)

Per questo problema definiamo il concetto di soluzione forte nello stesso modo. Se X èsoluzione forte di (7.4) allora Yt := Xt−σBt è soluzione forte di (7.6). Viceversa, se Y èsoluzione forte di (7.6) allora Xt := Yt +σBt è soluzione forte di (7.4). Se dimostriamoesistenza e unicità forte per il problema (7.6) allora abbiamo esistenza e unicità forteper il problema (7.4). Infatti, dall’esistenza per (7.6) discende l’esistenza per (7.4); sepoi abbiamo due soluzioni di (7.4), queste generano due soluzioni di (7.6), che devonocoincidere per unicità, dando l’unicità anche per (7.4). Con lo stesso ragionamento,l’unicità per quasi ogni ω per (7.6) implica quella per (7.4).Sia Ω0 ∈ F un insieme di misura uno tale che, per ogni ω ∈ Ω0, t 7→ Bt (ω) sia

continua. Consideriamo, per ω ∈ Ω0 fissato, l’equazione deterministica

yt = X0 (ω) +

∫ t

0

b (s, ys + σBs (ω)) ds, t ∈ [0, T ] .

Consideriamo la funzione gω (t, z) = b (t, z + σBt (ω)). E’ una funzione continua everifica

|gω (t, z)− gω (t, w)| = |b (t, z + σBt (ω))− b (t, w + σBt (ω))|≤ L |z + σBt (ω)− (w + σBt (ω))| = L |z − w|

Page 142: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

142 CAPITOLO 7. EQUAZIONI DIFFERENZIALI STOCASTICHE

cioè vale per gω (t, z) l’ipotesi (7.3). Pertanto, per i risultati della sezione precedente,esiste una ed una sola y ∈ C

([0, T ] ;Rd

)che risolve questa equazione. Indichiamo

questa soluzione con Yt (ω) per evidenziare la dipendenza dal punto ω ∈ Ω0 fissato apriori.In questo modo abbiamo definito una funzione (t, ω) 7→ Yt (ω), da [0, T ]×Ω in Rd.

Essa è un processo adattato: per ogni t ∈ [0, T ], la funzione ω 7→ Yt (ω) è Ft-misurabile.La verifica dettagliata di questa proprietà è lunga da scrivere ma concettualmente èelementare. Infatti, si ispezioni la dimostrazione di esistenza del paragrafo precedente(specialmente la seconda). Le approssimanti definite per ricorrenza sono processi adat-tati, per ragioni elementari ed esplicite. Da questo si deduce che il loro limite è unprocesso adattato.Il processo Yt (ω) è anche continuo e risolve (7.6) uniformemente in t, con proba-

bilità uno. Quindi è soluzione forte. Infine, vale l’unicità per quasi ogni ω, per (7.6)(lo abbiamo appena descritto), per cui c’è anche unicità forte. La dimostrazione ècompleta.Mostriamo anche una proprietà quantitativa della soluzione.

Proposizione 50 Sempre sotto l’potesi (7.3), se E [X20 ] < ∞, allora X è di classe

M2.

Proof. Che sia progressivamente misurabile, è già noto (continuo e adattato). Dobbi-amo verificare che è di quadrato integrabile in entrambe le variabili. Da (7.6) ricaviamo(si applica la disuguaglianza di Hölder)

|Yt|2 ≤ 2 |X0|2 + 2

∣∣∣∣∫ t

0

b (s, Ys + σBs) ds

∣∣∣∣2≤ 2 |X0|2 + 2

(∫ t

0

|b (s, Ys + σBs)| ds)2

≤ 2 |X0|2 + 2t

∫ t

0

|b (s, Ys + σBs)|2 ds.

Ora osserviamo che l’ipotesi (7.3) implica che esiste C0 > 0 tale che

|b (t, x)| ≤ C0 (1 + |x|) .

Infatti|b (t, x)| ≤ |b (t, x)− b (t, 0)|+ |b (t, 0)| ≤ L |x|+ max

t∈[0,T ]|b (t, 0)|

per cui basta prendereC0 = max(L,maxt∈[0,T ] |b (t, 0)|

). Ma allora |b (t, x)|2 ≤ 2C

(1 + |x|2

)cioè esiste C > 0 tale che

|b (t, x)|2 ≤ C(1 + |x|2

)(7.7)

Page 143: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

7.2. EQUAZIONI DIFFERENZIALI STOCASTICHE CON NOISE ADDITIVO 143

da cui (indicheremo con Ci varie costanti che semplificano le scritture volta per volta)

|Yt|2 ≤ 2 |X0|2 + 4t

∫ t

0

C2(1 + |Ys + σBs|2

)ds

≤ 2 |X0|2 + C1 + C2

∫ t

0

|Ys|2 ds+ C3

∫ t

0

|σBs|2 ds

con opportune costanti che dipendono da T . Da qui si deduce

E[|Yt|2

]≤ 2E

[|X0|2

]+ C1 + C2

∫ t

0

E[|Ys|2

]ds+ C3

∫ t

0

E[|σBs|2

]ds

che implicherebbe tramite il lemma di Gronwall una stima su E[|Yt|2

]se già sapessimo

che E[|Yt|2

]<∞. Ma non lo sappiamo e quindi la disuguaglianza ora scritta potrebbe

essere ∞ ≤∞. Introduciamo però il tempo di arresto

τn = inft ≥ 0 : |Yt|2 ≥ n

(infinito se l’insieme è vuoto) ed osserviamo che

|Yt∧τn|2 ≤ 2 |X0|2 + C1 + C2

∫ t∧τn

0

|Ys|2 ds+ C3

∫ t∧τn

0

|σBs|2 ds

≤ 2 |X0|2 + C1 + C2

∫ t∧τn

0

|Ys∧τn|2 ds+ C3

∫ T

0

|σBs|2 ds

≤ 2 |X0|2 + C1 + C2

∫ t

0

|Ys∧τn|2 ds+ C3

∫ T

0

|σBs|2 ds.

Quindi

E[|Yt∧τn|

2] ≤ 2E[|X0|2

]+ C1 + C2

∫ t

0

E[|Ys∧τn|

2] ds+ C3

∫ T

0

E[|σBs|2

]ds

ed ora E[|Yt∧τn|

2] ≤ n, quindi possiamo applicare il lemma di Gronwall e trovare

E[|Yt∧τn|

2] ≤ (2E[|X0|2

]+ C1 + C3

∫ T

0

E[|σBs|2

]ds

)etC2 ≤ C4.

Vale limn→∞ τn = +∞ ed Y è un processo continuo, quindi limn→∞ Yt∧τn = Yt q.c. equindi, per il lemma di Fatou,

E[|Yt|2

]= E

[limn→∞

|Yt∧τn|2]≤ lim inf

n→∞E[|Yt∧τn|

2] ≤ C4.

Questo vale per ogni t ∈ [0, T ]. Ne discende

E[|Xt|2

]≤ C5

per ogni t ∈ [0, T ] ed in particolare che X è di classe M2.

Page 144: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

144 CAPITOLO 7. EQUAZIONI DIFFERENZIALI STOCASTICHE

7.2.1 Esempio di motivazione per il calcolo stocastico

Potrebbe sembrare dal paragrafo precedente che, almeno per equazioni stocastichemolto semplici, il calcolo stocastico (integrale di Itô, formula di Itô) non servano. Peril teorema di esistenza e unicità è così ma basta addentrarsi in altre proprietà pervedere che senza calcolo stocastico non si va avanti. Vediamo un esempio.Si consideri l’equazione differenziale in R2

dxtdt

= Axt

dove

A =

(0 1−1 0

).

Posto xt =

(qtpt

), vale

dqtdt

= pt,dptdt

= −qte quindi

d2qtdt2

= −qtche è l’equazione di un oscillatore armonico di massa unitaria. Le soluzioni xt ruotanonel piano R2; in particolare conservano l’energia, se con questo nome intendiamol’espressione

Et :=1

2|xt|2 =

1

2

(q2t + p2

t

)(conservano anche |xt|, la distanza dall’origine). Infatti

d

dt|xt|2 = 2

⟨xt,

dxtdt

⟩= 2 〈xt, Axt〉 = 0

ovvero |xt|2 è costante. Abbiamo usato le notazioni |·| e 〈·, ·〉 per norma e prodottoscalare euclideo e la proprietà 〈x,Ax〉 = 0 valida per matrici antisimmetriche.Veniamo al caso stocastico. Consideriamo l’equazione

dXt = AXtdt+ σdBt

dove B è un moto browniano unidimensionale e σ è il vettore (σ0 ∈ R)

σ =

(0σ0

).

Per componenti, si tratta del sistema

dqtdt

= pt, dpt = −qtdt+ σ0dBt

Page 145: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

7.2. EQUAZIONI DIFFERENZIALI STOCASTICHE CON NOISE ADDITIVO 145

o, più informalmente,d2qtdt2

= −qt + σ0dBt

dt.

Chiediamoci: cosa accade ora all’energia? Il termine aggiuntivo σ0dBtdtintroduce, sot-

trae energia oppure è neutrale? Dobbiamo capire come cambia Et = 12|Xt|2. Ma per

far questo serve la formula di Itô, ed in essa compaiono automaticamente degli inte-grali di Itô, anche se non c’erano nell’equazione originaria. Vediamo il calcolo. Vale(f (x) = |x|2, ∇f (x) = x, D2f (x) = Id)

d|Xt|2

2= 〈Xt, dXt〉+

σ20

2dt

= 〈Xt, AXt〉 dt+ 〈Xt, σdBt〉+σ2

0

2dt

= 〈Xt, σdBt〉+σ2

0

2dt

perché 〈Xt, AXt〉 = 0. Non è chiaro cosa accada all’energia delle singole traiettorie, daquesta identità, ma scrivendola in forma integrale

Et = E0 +

∫ t

0

〈Xs, σdBs〉+σ2

0

2t

ed usando il fatto che il processo X è di classe M2 (Proposizione 50) possiamo usare il

fatto che E[∫ t

0〈Xs, σdBs〉

]= 0 e concludere

E [Et] = E [E0] +σ2

0

2t

cioè l’energia media aumenta linearmente nel tempo. Il disturbo casuale introducesistematicamente energia nel sistema, mediamente parlando.

Osservazione 30 Si noti che un disturbo deterministico εt può anche introdurre en-ergia ma lo fa in modo meno chiaro e controllato. Consideriamo l’equazione determin-istica

dxtdt

= Axt + εt.

Con calcoli identici ai precedenti si dimostra che

Et = E0 +

∫ t

0

〈Xs, εs〉 ds

Non è chiaro a priori se il termine∫ t

0〈Xs, εs〉 ds sia positivo o negativo (dipende dal-

la soluzione, non solo direttamente dal disturbo assegnato) e come cresca nel tempo.Vediamo quindi che il modo di immettere energia in un sistema proprio del moto brow-niano è assai speciale e conveniente per avere sotto controllo con precisione il bilanciodell’energia del sistema.

Page 146: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

146 CAPITOLO 7. EQUAZIONI DIFFERENZIALI STOCASTICHE

7.3 SDE con coeffi ciente di diffusione non costante

L’acronimo SDE, che useremo ogni tanto per abbreviare, sta per stochastic differentialequations. In questa sezione studiamo equazioni della forma

Xt = X0 +

∫ t

0

b (s,Xs) ds+

∫ t

0

σ (s,Xs) dBs, t ∈ [0, T ] (7.8)

che scriveremo anche nella forma

dXt = b (t,Xt) dt+ σ (t,Xt) dBt, X|t=0 = X0.

Qui B è un moto browniano in Rn definito su (Ω,F , P ) rispetto a (Ft)t≥0, X0 è unav.a. in Rd misurabile rispetto a F0, b : [0, T ] × Rd → Rd e σ : [0, T ] × Rd → Rn×dsono funzioni continue e lipschitziane in x uniformemente in t (si veda sotto). Lesoluzioni che si cercano sono processi a valori in Rd, continui e adattati, che risolvanol’equazione integrale uniformemente in t, quasi certamente. Le definizioni di esistenzaforte ed unicità pathwise sono le stesse del caso con σ costante.

Definizione 23 Fissata una base stocastica(Ω,F , (Ft)t≥0 , P, (Bt)t≥0

)ed una v.a. F0-

misurabileX0, chiamiamo soluzione forte di (7.8) ogni processo stocasticoX = (Xt)t∈[0,T ]

definito su (Ω,F , P ), continuo, adattato alla filtrazione (Ft)t≥0, che soddisfa (7.8)uniformemente in t ∈ [0, T ] con probabilità uno:

P

(Xt = X0 +

∫ t

0

b (s,Xs) ds+

∫ t

0

σ (s,Xs) dBs,∀t ∈ [0, T ]

)= 1.

Diciamo che c’è esistenza forte quando questo vale a partire da qualsiasi base stocasticae qualsiasi v.a. F0-misurabile X0.

Definizione 24 Diciamo che vale l’unicità forte se, data una qualsiasi base stocastica(Ω,F , (Ft)t≥0 , P, (Bt)t≥0

)ed una qualsiasi v.a. F0-misurabile X0, prese due soluzioni

forti X1 e X2, esse sono indistinguibili.

Osservazione 31 Se X è un processo continuo, allora s 7→ b (s,Xs) e s 7→ σ (s,Xs)sono processi continui (stiamo sempre supponendo che b e σ siano funzioni contin-ue) e quindi di classe Λ1 e Λ2 rispettivamente; pertanto gli integrali che compaiononell’equazione hanno senso.

Osservazione 32 Non possiamo dare la definizione di unicità per quasi ogni ω, invece,perché l’integrale stocastico

∫ t0σ (s,Xs)Bs non ha significato puntuale in ω.

Page 147: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

7.3. SDE CON COEFFICIENTE DI DIFFUSIONE NON COSTANTE 147

Su b e σ imponiamo:

b continua, esiste L > 0 tale che

|b (t, x)− b (t, y)| ≤ L |x− y| per ogni t ∈ [0, T ] e x, y ∈ Rd

σ continua, esiste L > 0 tale che

‖σ (t, x)− σ (t, y)‖HS ≤ L |x− y| per ogni t ∈ [0, T ] e x, y ∈ Rd

dove ricordiamo che ‖A‖2HS =

∑ij A

2ij. Osserviamo che esiste C > 0 tale che (si veda

(7.7))|b (t, x)|2 ≤ C

(1 + |x|2

)ed analogamente (eventualmente rinominando C)

‖σ (t, x)‖2HS ≤ C

(1 + |x|2

)in quanto

‖σ (t, x)‖2HS ≤ 2 ‖σ (t, x)− σ (t, 0)‖2

HS + 2 ‖σ (t, 0)‖2HS

≤ 2L2 |x|2 + 2 maxt∈[0,T ]

‖σ (t, 0)‖2HS .

Teorema 39 Sotto queste ipotesi, se E[|X0|2

]< ∞, allora c’è esistenza forte per

l’equazione (7.8), di una soluzione che verifica anche

E

[supt∈[0,T ]

|Xt|2]<∞.

Nella classe dei processi che verificano anche questa condizione quantitativa (basta

E[∫ T

0|Xs|2 ds

]<∞) c’è anche unicità forte.

Osservazione 33 Con opportuni argomenti (tempi di arresto ecc.) si può omettere lacondizione E

[|X0|2

]<∞, rinunciando così alla proprietà E

[supt∈[0,T ] |Xt|2

]<∞, ed

avere tuttavia ancora esistenza ed unicità forte. Omettiamo i dettagli.

Proof. Passo 1. Vediamo l’unicità pathwise. Data una base stocastica(Ω,F , (Ft)t≥0 , P, (Bt)t≥0

),

una v.a. F0-misurabile X0 con la proprietà E[|X0|2

]< ∞, e due soluzioni X1 e

X2 tali che E[supt∈[0,T ] |X i

t |2]< ∞, i = 1, 2, dobbiamo dimostrare che esse sono

indistinguibili. Vale

X1t −X2

t =

∫ t

0

(b(s,X1

s

)− b(s,X2

s

))ds+

∫ t

0

(σ(s,X1

s

)− σ

(s,X2

s

))dBs

Page 148: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

148 CAPITOLO 7. EQUAZIONI DIFFERENZIALI STOCASTICHE

da cui∣∣X1t −X2

t

∣∣2 ≤ 2

∣∣∣∣∫ t

0

b(s,X1

s

)− b(s,X2

s

)ds

∣∣∣∣2 + 2

∣∣∣∣∫ t

0

(σ(s,X1

s

)− σ

(s,X2

s

))dBs

∣∣∣∣2 .Da un lato, vale∣∣∣∣∫ t

0

b(s,X1

s

)− b(s,X2

s

)ds

∣∣∣∣2 ≤ (∫ t

0

∣∣b (s,X1s

)− b(s,X2

s

)∣∣ ds)2

≤ t

∫ t

0

∣∣b (s,X1s

)− b(s,X2

s

)∣∣2 dsusando la disuguaglianza di Hölder. Dall’altro, osservando che s 7→ (σ (s,X1

s )− σ (s,X2s ))

è un processo di classeM2 (spiegato poco oltre), per la formula di isometria vettoriale,Proposizione 40, abbiamo

E

[∣∣∣∣∫ t

0

(σ(s,X1

s

)− σ

(s,X2

s

))dBs

∣∣∣∣2]

= E

[∫ t

0

∥∥σ (s,X1s

)− σ

(s,X2

s

)∥∥2

HSds

].

Pertanto,

∣∣X1t −X2

t

∣∣2 ≤ 2T

∫ t

0

∣∣b (s,X1s

)− b(s,X2

s

)∣∣2 ds+ 2

∣∣∣∣∫ t

0

(σ(s,X1

s

)− σ

(s,X2

s

))dBs

∣∣∣∣2

E[∣∣X1

t −X2t

∣∣2] ≤ 2T

∫ t

0

E[∣∣b (s,X1

s

)− b(s,X2

s

)∣∣2] ds+ 2E

[∫ t

0

∥∥σ (s,X1s

)− σ

(s,X2

s

)∥∥2

HSds

]≤ 2TL2

∫ t

0

E[∣∣X1

s −X2s

∣∣2] ds+ 2L2

∫ t

0

E[∣∣X1

s −X2s

∣∣2] ds=

(2TL2 + 2L2

) ∫ t

0

E[∣∣X1

s −X2s

∣∣2] dse quindi, per il lemma di Gronwall applicato alla funzione t 7→ E

[|X1

t −X2t |

2], abbiamo

E[∣∣X1

t −X2t

∣∣2] = 0

per ogni t ∈ [0, T ]. Da questo discende che X1t = X2

t q.c., per ogni t ∈ [0, T ],ovvero che i due processi sono modificazione uno dell’altro; ma essendo continui, sonoindistinguibili.Resta da verificare che s 7→ σ (s,X i

s), i = 1, 2, è un processo di classe M2. Questoderiva dalle disuguaglianze (ricordando che ‖σ (t, x)‖2

HS ≤ C(1 + |x|2

))

E

[∫ T

0

∥∥σ (s,X is

)∥∥2

HSds

]≤ E

[∫ T

0

(C +

∣∣X is

∣∣2) ds] = CT + E

[∫ T

0

∣∣X is

∣∣2 ds] <∞

Page 149: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

7.3. SDE CON COEFFICIENTE DI DIFFUSIONE NON COSTANTE 149

per ipotesi.Passo 2. Per dimostrare l’esistenza, usiamo il metodo delle approssimazioni suc-

cessive (si potrebbe fare benissimo col principio delle contrazioni). Poniamo X0t = X0,

t ∈ [0, T ] e

Xn+1t = X0 +

∫ t

0

b (s,Xns ) ds+

∫ t

0

σ (s,Xns ) dBs, t ∈ [0, T ]

per ogni n ≥ 0.Vediamo innanzi tutto che le iterazioni siano ben definite e che processi definiscano.

Supponiamo di sapere cheXn è un processo continuo che soddisfa E[supt∈[0,T ] |Xn

t |2] <

∞. Allora b (s,Xns ) e σ (s,Xn

s ) sono processi continui e adattati, per cui, per lo meno,∫ t0b (s,Xn

s ) ds e∫ t

0σ (s,Xn

s )Bs sono processi ben definiti, continui e adattati. Ma, piùprecisamente,

|b (s,Xns )|2 ≤ C

(1 + |Xn

s |2)

quindi ∣∣∣∣∫ t

0

b (s,Xns ) ds

∣∣∣∣2 ≤ t

∫ t

0

|b (s,Xns )|2 ds ≤ TC

∫ t

0

(1 + |Xn

s |2) ds

da cui discende che

E

[supt∈[0,T ]

∣∣∣∣∫ t

0

b (s,Xns ) ds

∣∣∣∣2]<∞.

Inoltre vale‖σ (s,Xn

s )‖2HS ≤ C

(1 + |Xn

s |2)

per cui σ (s,Xns ) è un processo (matriciale) di classe M2,

∫ t0σ (s,Xn

s )Bs è una mar-tingala (vettoriale) di quadrato integrabile, e vale (disuguaglianza di Doob vettoriale,Proposizione 41)

E

[supt∈[0,T ]

∣∣∣∣∫ t

0

σ (s,Xns )Bs

∣∣∣∣2]≤ 4E

[∫ T

0

‖σ (s,Xns )‖2

HS ds

].

Abbiamo verificato che la proprietà E[supt∈[0,T ] |Xn

t |2] <∞ si trasferisce da n a n+ 1

e siccome vale per n = 0, vale per ogni n.Passo 3. Discutiamo ora la convergenza della successione Xn. Lo facciamo in due

modi, in analogia col caso deterministico. Il primo è basato su una stima del tipo

E

[supt∈[0,τ ]

∣∣Xn+1t −Xn

t

∣∣2] ≤ αnτE

[supt∈[0,τ ]

∣∣X1t −X0

t

∣∣2] (7.9)

dove ατ < 1 se τ è abbastanza piccolo. Da qui si deduce l’esistenza di una soluzione su[0, τ ] e poi si deve iterare il procedimento su intervallini successivi di eguale ampiezza.Vediamo alcuni dettagli. Il secondo modo verrà illustrato al passo successivo.

Page 150: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

150 CAPITOLO 7. EQUAZIONI DIFFERENZIALI STOCASTICHE

Vale, come sopra, per t ∈ [0, τ ] con τ ∈ [0, T ] fissato,

∣∣Xn+1t −Xn

t

∣∣2 ≤ 2τ

∫ t

0

∣∣b (s,Xns )− b

(s,Xn−1

s

)∣∣2 ds+2

∣∣∣∣∫ t

0

(σ (s,Xn

s )− σ(s,Xn−1

s

))dBs

∣∣∣∣2ed inoltre

∫ t

0

∣∣b (s,Xns )− b

(s,Xn−1

s

)∣∣2 ds ≤ 2τL2

∫ t

0

∣∣Xns −Xn−1

s

∣∣2 ds≤ 2τ 2L2 sup

s∈[0,τ ]

(∣∣Xns −Xn−1

s

∣∣2) .Quindi

E

[supt∈[0,τ ]

∣∣Xn+1t −Xn

t

∣∣2] ≤ 2τ 2L2E

[sups∈[0,τ ]

(∣∣Xns −Xn−1

s

∣∣2)]

+2E

[supt∈[0,τ ]

∣∣∣∣∫ t

0

(σ (s,Xn

s )− σ(s,Xn−1

s

))dBs

∣∣∣∣2].

Il secondo termine a destra si maggiora, tramite la disuguaglianza di Doob vettoriale,Proposizione 41, con

2E

[supt∈[0,τ ]

∣∣∣∣∫ t

0

(σ (s,Xn

s )− σ(s,Xn−1

s

))dBs

∣∣∣∣2]

≤ 8E

[∫ τ

0

∥∥σ (s,Xns )− σ

(s,Xn−1

s

)∥∥2

HSds

]≤ 8L2E

[∫ τ

0

∣∣Xns −Xn−1

s

∣∣2 ds] ≤ 8L2τE

[sups∈[0,τ ]

(∣∣Xns −Xn−1

s

∣∣2)] .In definitiva,

E

[supt∈[0,τ ]

∣∣Xn+1t −Xn

t

∣∣2] ≤ (2τ 2L2 + 8L2τ)E

[sups∈[0,τ ]

(∣∣Xns −Xn−1

s

∣∣2)] .Se prendiamo τ > 0 così piccolo che sia ατ := 2τ 2L2 + 8L2τ < 1, abbiamo (7.9).Da (7.9) si può dedurre che esiste un processo continuo adattato (Xt)t∈[0,τ ], con

E[supt∈[0,τ ] |Xt|2

]<∞, tale che

limn→∞

E

[supt∈[0,τ ]

|Xnt −Xt|2

]= 0.

Page 151: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

7.3. SDE CON COEFFICIENTE DI DIFFUSIONE NON COSTANTE 151

O lo si deduce usando lo spazio di Banach L2(Ω;C

([0, τ ] ;Rd

)), in cui Xn è una

successione di Cauchy grazie a (7.9), oppure si sviluppa una serie di ragionamenti piùelementari ma lunghi (ad esempio si ragiona prima a t fissato, usando la completezzadello spazio L2

(Ω;Rd

), e poi si riuniscono i tempi a posteriori).

Dalla convergenza delle Xnt a Xt si deduce facilmente che X è soluzione, applicando

calcoli simili a quelli appena visti, nella versione più facile del passo 1: per ogni t ∈ [0, τ ]

E

[∣∣∣∣∫ t

0

b (s,Xns ) ds−

∫ t

0

b (s,Xs) ds

∣∣∣∣2]≤ τE

[∫ t

0

|b (s,Xns )− b (s,Xs)|2 ds

]≤ τL2E

[∫ t

0

|Xns −Xs|2 ds

]→ 0

E

[∣∣∣∣∫ t

0

σ (s,Xns ) dBs −

∫ t

0

σ (s,Xs) dBs

∣∣∣∣2]

= E

[∫ t

0

‖σ (s,Xns )− σ (s,Xs)‖2

HS ds

]≤ L2E

[∫ t

0

|Xns −Xs|2 ds

]→ 0.

Bisogna infine ripartire dal tempo τ , con la condizione iniziale Xτ , ovvero il valoredella soluzione appena trovata, al tempo τ . Le stime non cambiano per cui si puòripetere il ragionamento sull’intervallo [τ , 2τ ]. In un numero finito di passi si ricopre[0, T ].Passo 4. Se si vuole lavorare in un passo solo si può usare il trucco, illustrato nel

caso deterministico, della penalizzazione esponenziale. Purtroppo esso impedisce diusare le disuguaglianze delle martingale, per cui le stime che inizialmente si dimostranosono più deboli di (7.9):

supt∈[0,T ]

E[e−2λt

∣∣Xn+1t −Xn

t

∣∣2] ≤ αnλ supt∈[0,T ]

E[e−2λt

∣∣X1t −X0

t

∣∣2] (7.10)

dove αλ < 1 se λ > 0 è abbastanza grande. Esse permettono comunque di trovare unprocesso (Xt)t∈[0,T ], con supt∈[0,T ] E

[|Xt|2

]<∞, tale che

limn→∞

supt∈[0,T ]

E[|Xn

t −Xt|2]

= 0.

Questo è suffi ciente per passare al limite (con gli stessi conti del passo precedente) percui Xt soddisfa l’equazione integrale (7.8). Però la soddisfa nel seguente senso: per ognit ∈ [0, T ], l’identità in (7.8) vale quasi certamente (non quindi come identità uniformein t). Da essa si deduce, a posteriori, che X ha una modificazione continua X, perché iltermine di destra dell’equazione è un processo continuo. Negli integrali si può a questopunto sostituire X con X e quindi X è soluzione continua e tradizionale dell’equazione(7.8).

Page 152: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

152 CAPITOLO 7. EQUAZIONI DIFFERENZIALI STOCASTICHE

Dimostriamo (7.10). Ripartiamo da∣∣Xn+1t −Xn

t

∣∣2 ≤ 2T

∫ t

0

∣∣b (s,Xns )− b

(s,Xn−1

s

)∣∣2 ds+2

∣∣∣∣∫ t

0

(σ (s,Xn

s )− σ(s,Xn−1

s

))dBs

∣∣∣∣2moltiplichiamo per e−2λt:

e−2λt∣∣Xn+1

t −Xnt

∣∣2 ≤ 2T

∫ t

0

e−2λ(t−s)e−2λs∣∣b (s,Xn

s )− b(s,Xn−1

s

)∣∣2 ds+2

∣∣∣∣∫ t

0

e−λ(t−s)e−λs(σ (s,Xn

s )− σ(s,Xn−1

s

))dBs

∣∣∣∣2e prendiamo il valore atteso (senza sup):

E[e−2λt

∣∣Xn+1t −Xn

t

∣∣2] ≤ 2T

∫ t

0

e−2λ(t−s)E[e−2λs

∣∣b (s,Xns )− b

(s,Xn−1

s

)∣∣2] ds+2E

[∫ t

0

e−2λ(t−s)e−2λs∥∥σ (s,Xn

s )− σ(s,Xn−1

s

)∥∥2

HSds

]

≤(2TL2 + 2L2

) ∫ t

0

e−2λ(t−s)E[e−2λs

∣∣Xns −Xn−1

s

∣∣2] ds≤

(2TL2 + 2L2

)sups∈[0,T ]

E[e−2λs

∣∣Xns −Xn−1

s

∣∣2] ∫ t

0

e−2λ(t−s)ds

≤ TL2 + L2

λsups∈[0,T ]

E[e−2λs

∣∣Xns −Xn−1

s

∣∣2] .Quindi

supt∈[0,T ]

E[e−2λt

∣∣Xn+1t −Xn

t

∣∣2] ≤ αλ sups∈[0,T ]

E[e−2λs

∣∣Xns −Xn−1

s

∣∣2]con αλ = TL2+L2

λ. Questo implica la (7.10) e la dimostrazione è completa.

Facendo un uso più accurato delle disuguaglianze per le martingale si può studiareil caso in cui E [|X0|p] < ∞ per un p ≥ 1 qualsiasi; inoltre, riconducendosi al casoprecedente tramite tempi d’arresto, si può studiare il caso in cui non si abbiano ipotesidi integrabilità su X0. Preferiamo tralasciare tutti questi dettagli e rinunciare ad unpo’di generalità. Il risultato comunque è il seguente.

Teorema 40 Se X0 è misurabile rispetto a F0, b e σ soddisfano le ipotesi precedenti,allora c’è esistenza forte e unicità pathwise per l’equazione (7.8). Se, per un certop ≥ 1, vale E [|X0|p] <∞, allora

E

[supt∈[0,T ]

|Xt|p]<∞.

Page 153: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

7.4. PRESENTAZIONE INFORMALE DEL LEGAME CON LE PDE 153

7.4 Presentazione informale del legame con le PDE

L’equazione differenziale stocastica (SDE)

dXt = b (t,Xt) dt+ σ (t,Xt) dBt

si lega a varie equazioni differenziali alle derivate parziali. Per semplicità di esposizione,limitiamoci al caso σ (t,Xt) = Id, quindi all’equazione con noise additivo

dXt = b (t,Xt) dt+ dBt (7.11)

dove supponiamo che B sia un moto browniano in Rd, b : [0, T ]×Rd → Rd sia suffi cien-temente regolare (se si vuole fissare un’ipotesi unica che vada bene per tutti i teoremi,si prenda ad esempio per semplicità C∞ con derivate limitate; ma caso per caso bastamolto meno) e la soluzione sia un processo continuo adattato in Rd.Oltre ad alcune altre varianti, le tre equazioni di base a cui leghiamo la SDE sono:

1. l’equazione parabolica, scritta in forma retrograda nel tempo, detta equazione diKolmogorov :

∂u

∂t+

1

2∆u+ b · ∇u = 0 su [0, T ]× Rd

u|t=T = uT

dove la soluzione u = u (t, x) è una funzione u : [0, T ]× Rd → R,

∆u =d∑i=1

∂2u

∂x2i

, b · ∇u =d∑i=1

bi∂u

∂xi

e si impone la condizione al tempo finale T , u (T, x) = uT (x);

2. l’equazione parabolica (in forma di equazione di continuità con viscosità), dettaequazione di Fokker-Planck :

∂p

∂t=

1

2∆p+ div (bp) su [0, T ]× Rd

p|t=0 = p0

dove la soluzione p = pu (t, x) è una funzione u : [0, T ]×Rd → R+, in genere unadensità di probabilità (ad ogni istante t fissato), e

div (bp) =

d∑i=1

∂xi(bip)

e si impone la condizione al tempo iniziale, p (0, x) = p0 (x), anch’essa densità diprobabilità;

Page 154: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

154 CAPITOLO 7. EQUAZIONI DIFFERENZIALI STOCASTICHE

3. il problema di Dirichlet

1

2∆u+ b · ∇u = 0 su D

u|∂D = g

dove D ⊂ Rd è un insieme limitato regolare, e la funzione g assegnata al bordo èpure suffi cientemente regolare.

I legami sono i seguenti. Fissato un qualsiasi t0 ∈ [0, T ], risolviamo l’equazione(7.11) sull’intervallo [t0, T ] con dato iniziale x ∈ Rd al tempo t0:

dXt = b (t,Xt) dt+ dBt per t ∈ [t0, T ]

Xt0 = x

ovvero in forma integrale

Xt = x+

∫ t

t0

b (s,Xs) ds+Bt per t ∈ [t0, T ] .

Indichiamo con X (t; t0, x) la soluzione forte, unica. Allora vale:

1. per l’equazione di Kolmogorov:

u (t, x) = E [uT (X (T ; t, x))] (7.12)

per ogni (t, x) ∈ [0, T ]× Rd

2. per l’equazione di Fokker-Planck: se si prende la soluzione Xt dell’equazione(7.11) con dato iniziale aleatorio X0 avente densità di probabilità p0 (x), alloraad ogni istante t ∈ [0, T ] la v.a. Xt ha densità di probabilità, data da p (t, x),soluzione dell’equazione di Fokker-Planck

3. per il problema di Dirichlet: detto τD il tempo di uscita da D (primo istante diingresso in Dc), vale

u (x) = E [g (XτD)] .

Osservazione 34 L’equazione di Fokker-Planck ha notevole utilità pratica nelle appli-cazioni perché offre un modo di calcolare (magari anche solo numericamente) la densitàdi probabilità della soluzione Xt, da cui si possono calcolare valori attesi e probabilità diinteresse applicativo. Inoltre, è di un certo interesse fisico il legame tra le due equazioni(per questo se ne sono interessati Fokker e Planck).

Page 155: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

7.4. PRESENTAZIONE INFORMALE DEL LEGAME CON LE PDE 155

Osservazione 35 I legami invece tra l’equazione (7.11) e le altre due equazioni allederivate parziali vengono di solito usati per scopi interni alla matematica, o per stu-diare le SDE tramite risultati e metodi della teoria delle PDE (equazioni alle derivateparziali), o viceversa.

Osservazione 36 Circa il legame con l’equazione di Kolmogorov, si può notare cheesso è una variante probabilistica del noto legame tra PDE del prim’ordine di tipotrasporto e le loro curve caratteristiche associate. Infatti, è noto che se si vuole studiarela PDE

∂u

∂t+ b · ∇u = 0 su [0, T ]× Rd

u|t=T = uT

si può dare una formula esplicita della soluzione in termini di caratteristiche, cioèrisolvendo l’equazione ordinaria associata

dXt

dt= b (t,Xt) dt per t ∈ [t0, T ]

Xt0 = x

ed il legame è (usando la notazione X (t; t0, x) come sopra)

u (t, x) = uT (X (T ; t, x)) .

Concludiamo con un cenno alla dimostrazione della prima formula, quella per l’e-quazione di Kolmogorov. Se volessimo partire dalla (7.11) e mostrare che la funzioneu (t, x) definita dalla formula (7.12) è soluzione dell’equazione di Kolmogorov, dovrem-mo svolgere molti calcoli (es. dovremmo derivare due volte X (t; t0, x) rispetto ad x).Non esponiamo questo tipo di calcoli. Invece, è moto semplice mostrare il seguenterisultato.

Proposizione 51 Se u è una soluzione di classe C1,2 dell’equazione di Kolmogorov,con derivate ∂u

∂xilimitate, allora vale (7.12).

Proof. Per la regolarità di u possiamo applicare la formula di Itô:

du (t,X (t; t0, x)) =∂u

∂tdt+∇u · (dX) +

1

2

∑ij

∂2u

∂xi∂xjd[X i, Xj

]ma d [X i, Xj]t = d [Bi, Bj]t = δijdt, quindi

du (t,X (t; t0, x)) =∂u

∂tdt+∇u · bdt+∇u · dB +

1

2∆udt.

Page 156: Capitolo 1 Introduzione ai Processi Stocasticiusers.dma.unipi.it/~flandoli/dispense_Istituzioni.pdf · per ogni B2G, dove GˆEed E=˙(G), allora XŁ misurabile; infatti, si prenda

156 CAPITOLO 7. EQUAZIONI DIFFERENZIALI STOCASTICHE

Siccome vale ∂u∂t

+ 12∆u+ b · ∇u, rimane

du (t,X (t; t0, x)) = ∇u (t,X (t; t0, x)) · dBt

ovvero, scrivendo in forma integrale su [t0, T ],

u (T,X (T ; t0, x)) = u (t0, X (t0; t0, x)) +

∫ T

t0

∇u (s,X (s; t0, x)) · dBs.

Per l’ipotesi di limitatezza delle derivate di u, vale E[∫ T

t0∇u (s,X (s; t0, x)) · dBs

]= 0.

Inoltre, X (t0; t0, x) = x, u (T,X (T ; t0, x)) = uT (X (T ; t0, x)), quindi

E [uT (X (T ; t0, x))] = u (t0, x) .

La dimostrazione è completa.