Introducere^‡n Analiza Stochastic‚aSMPF/Calcul stochastic_curs introductiv I_slide.pdf · O...

39
Universitatea “Al.I. Cuza”, Ia¸ si Seminar de Matematici Financiare 29 octombrie 2009 Introducere ˆ ın Analiza Stochastic˘ a Partea I Lucian Maticiuc e-mail: [email protected]

Transcript of Introducere^‡n Analiza Stochastic‚aSMPF/Calcul stochastic_curs introductiv I_slide.pdf · O...

Universitatea “Al.I. Cuza”, Iasi

Seminar de Matematici Financiare

29 octombrie 2009

Introducere ın Analiza StochasticaPartea I

Lucian Maticiuc

e-mail: [email protected]

1 Generalitati

In acest capitol reamintim notiuni de baza ale teoriei probabilitatilor ce vor fiutilizate pe parcursul cursului.

1.1 σ - algebra

Fie Ω un spatiu arbitrar ale carui elemente le vom nota cu ω. O submultimea lui Ω o vom numi eveniment. Mentionam ca, ın cele mai multe cazuri,structura lui Ω nu este importanta. Totusi, ın situatia ın care se doresteconstruirea unei variabile aleatoare de lege data, este importanta cunostereastructurii spatiului Ω.

1.1.1 Definitia unei σ-algebre

Definitia 1.1.1 O σ-algebra pe Ω este o familie de parti ale lui Ω ce continemultimea vida, este stabila prin trecerea la complementara, la reuniuni numa-rabile si la intersectii numarabile.

Un spatiu masurabil este un spatiu ınzestrat cu o σ-algebra.

Propozitia 1.1.1 O intersectie de σ-algebre este o σ-algebra.

Aceasta propozitie nu este adevarata pentru reuniuni.

Cea mai mica σ-algebra ce contine o familie de multimi este intersectiatuturor σ-algebrelor ce contin aceasta familie.

Exemplul 1.1.1 σ-algebra Borel pe R, notata BR, este cea mai mica σ-algebrace contine toate intervalele deschise (sau ınchise, sau deschise la dreapta siınchise la stanga).

1.1.2 Masurabilitatea

Definitia 1.1.2 Fie (Ω,F) si (E, E) doua spatii masurabile. O aplicatie f :Ω → E spunem ca este (F , E)-masurabila daca f−1 (A) ∈ F , ∀A ∈ E, unde

f−1 (A)def= ω ∈ Ω : f (ω) ∈ A .

O functie f : R→ R spunem ca este boreliana daca este (BR,BR)-masurabila.Aceasta proprietatea este suficient daca o verificam pentru intervalele din R.

Definitia 1.1.3 Fie (Ω,F) un spatiu masurabil. O variabila aleatoare reala(v.a.r.) X este o aplicatie masurabila de la (Ω,F) la R.

O constanta este o v.a., precum si functia indicatoare a unei multimi aσ-algebrei F .

Propozitia 1.1.2 Daca X este o v.a.r. G-masurabila si daca f este o functieboreliana, atunci f (X) este G-masurabila.

O v.a. G-masurabila este este limita crescatoare de v.a. de tipuln∑

i=1

ai1Ai,

unde Ai ∈ G.

O functie boreliana este limita crescatoare de functii de tipuln∑

i=1

ai1Ai ,

unde Ai este un interval.

1.1.3 σ-algebre generate

Definitia 1.1.4 σ-algebra generata de o familie de multimi A este cea maimica σ-algebra ce contine aceasta aceasta familie. Vom nota aceasta σ-algebracu σ (A). Este si intersectia tuturor σ-algebrelor ce contin A.

Definitia 1.1.5 σ-algebra generata de o variabila aleatoare X definita pe(Ω,F) este multimea de parti ale lui Ω de tipul X−1 (A), unde A ∈ BR.Vom nota aceasta σ-algebra cu σ (X).

σ-algebra σ (X) este continuta ın F . Este si cea mai mica σ-algebra pe Ωın raport cu care X este masurabila.

O v.a.r. X este G masurabila daca σ (X) ⊂ G.

Daca Y este o aplicatie de la Ω la R, σ (X) masurabila (adica Y −1 (A) ∈σ (X), ∀A ∈ BR sau σ (Y ) ⊂ σ (X)), atunci exista o functie boreliana f : R→R astfel ıncat Y = f (X), si reciproc.

Definitia 1.1.6 σ-algebra generata de o familie de variabile aleatoare (Xt)t∈[0,T ]

este cea mai mica σ-algebra ce contine multimeaX−1

t (A), pentru orice

t ∈ [0, T ] si A ∈ BR. O vom nota prin σ (Xt, t ∈ [0, T ]).

1.2 Probabilitatea

1.2.1 Definitia

O probabilitate pe (Ω,F) este o aplicatie P : F → [0, 1] astfel ıncat:a) P (Ω) = 1,

b) P( ∞⋃

n=0An

)=

n∑i=1

P (An), pentru An ∈ F , disjuncte doua cate doua.

Notatii: P (A) =∫

AdP =

∫Ω1AdP, unde 1A este functia indicatoare.

Avem P (A) + P (Ac) = 1, ∀A ∈ F .Daca A ⊂ B atunci P (A) ≤ P (B) si P (B) = P (A) + P (B −A).Daca (An)n este un sir crescator (descrescator) de elemente din F , si daca

A =⋃n

An (respectiv A =⋂n

An), atunci A ∈ F si P (A) = limn→∞

P (An).

Teorema clasei monotone: Daca P1, P2 sunt doua probabilitati pe (Ω,F)astfel ıncat P1 (A) = P2 (A), ∀A ∈ C, unde C este o familie stabila la intersectiefinita si care genereaza F . Atunci P1 = P2 pe F .

1.2.2 Multimi neglijabile

O multime spunem ca este neglijabila daca este de probabilitate nula.O reuniune numarabila de multimi neglijabile este o multime neglijabila.O proprietate este adevarata aproape sigur (a.s.) daca este adevarata ın

afara unei multimi neglijabile. Vom spune de asemenea ca proprietatea esteadevarata pentru aproape toti ω.

Un spatiu (Ω,F ,P) spunem ca este complet daca el contine toate multimileG astfel ıncat inf P (F ) : F ∈ F , G ⊂ F = 0.

1.3 Legea (distributia) unei variabile aleatoare

Definitia 1.1.5 Fie X o v.a. definita pe (Ω,F ,P). Legea (distributia) luiX este probabilitatea PX pe (R,BR) data de PX (A) = P ω : X (ω) ∈ A =P (X ∈ A), A ∈ BR.

Definim functia de repartitie a variabilei X prin functia crescatoare datade F : R→ R, F (x) = P (X ≤ x).

Se mai poate utiliza ca definitie si P (X < x) dar modificarile sunt minime.

Functia de repartitie definita initial este continua la dreapta, iar cealalta estecontinua la stanga; cele doua functii sunt egale ın toate punctele de continui-tate.

Densitatea f (x) a unei variabile aleatoare este derivata functiei de repartitie(daca aceasta derivata exista). Putem scrie atunci P (X ∈ A) =

∫A

f (x) dx.Daca doua v.a. au aceeasi lege (sau aceeasi functie de repartitie sau aceeasidensitate) spunem ca ele sunt egale ın lege.

O observatie utila este urmatoarea: daca X, Y sunt doua v.a. astfel ıncatP (X ≤ a) = P (Y ≤ a), ∀a ∈ R, atunci X, Y au aceeasi lege, notat X

L= Y .

1.3.1 Existenta unei variabile aleatoare

Pentru construirea unei variabile aleatoare de lege data (de exemplu una gaus-siana) vom alege ca spatiu Ω = R. Fie X : Ω → R, aplicatia identitate siprobabilitatea P data de P (dω) = 1√

2πexp

(−ω2

2 dω). Functia de repartitie

a lui X este FX (x) = P (X < x) =∫1ω<xP (dω) =

∫ x

−∞1√2π

exp(−ω2

2 dω).

Prin urmare X este o v.a gaussiana.

1.3.2 Media (speranta)

Media (speranta)unei v.a. X este∫Ω

XdP si o vom nota cu E (X) sau eventualcu EP (X). Pentru a calcula aceasta integrala, folosim, conform definitiei legiide probabilitate,

∫Ω

XdP =∫R xdPX (x).

Exista v.a. care nu au medie.Spunem ca X este integrabila daca |X| are medie. Spatiul L1 (Ω) (spatiul

v.a. integrabile) contine constantele, v.a. marginite, v.a. majorate ın valoareabsoluta de o v.a. integrabila.

Daca X admite o densitate f atunci E (X) =∫R xf (x) dx.

Daca cunoastem E (Φ (X)) pentru toate functiile boreliene marginite Φ,atunci cunoastem legea lui X; daca E (Φ (X)) = E (Φ (Y )), pentru toatefunctiile boreliene marginite Φ, atunci X

L= Y . Mentionam ca egalitateaın lege nu este egalitatea a.s.; de exemplu daca X este o variabila gaussianacentrata, avem X

L= −X, dar cele doua variabile nu sunt egale a.s.Deci este suficient sa verificam egalitatea E (Φ (X)) = E (Φ (Y )) pentru o

clasa suficient de bogata de functii, de exemplu functii indicatoare de borelienesau intervale, sau functii de forma eλx, λ ∈ R, pentru a avea X

L= Y .

Functia caracteristica a unei v.a. este transformata Fourier a legii lui X,adica functia ψ (t)

def= E

(eitx

)=

∫R eitxPX (dx). Functia caracteristica a

unei v.a. caracterizeaza legea lui X ın sensul ca daca stim aceasta functie,atunci putem determina legea variabilei. Functia Ψ (λ)

def= E

(eλX

), adica

transformata Laplace, caracterizeaza si ea legea unei variabile.

Exemplul 1.3.1 Daca X este o variabila gaussiana de lege N (m,σ2

), avem

E(eλX

)= exp

(λm +

λ2σ2

2

), ∀λ ∈ R

si reciproc.

Propozitia 1.1.2 Au loc:a) Media este liniara ın raport cu variabilele.b) Media este crescatoare.c) Inegalitatea lui Jensen: daca Φ este o functie convexa astfel ıncat Φ(X)

este integrabila, atunci

Φ(E (X)) ≤ E (Φ (X)) .

1.3.3 Integrabilitate uniforma

O familie de v.a. (Xi)i∈I spunem ca este uniform integrabila daca

supi

|Xi|≥a

|Xi| dP −→ 0, a →∞

Daca exista Y ∈ L1 (Ω) astfel ıncat |Xi| ≤ Y , ∀i, atunci familia (Xi)i∈I

este uniform integrabila.

1.3.4 Independenta

Definitia 1.3.2 Dou a σ-algebre F1,F2 sunt independente daca P (A ∩B) =P (A)P (B), ∀A ∈ F1, B ∈ F2.

Pentru ca doua σ-algebre F1,F2 sa fie independente este suficient ca P (A ∩B) =P (A)P (B), ∀A ∈ C1, B ∈ C2, unde Ci sunt familii stabile la intersectii astfelıncat σ (Ci) = Fi, i = 1, 2.

Definitia 1.3.3 O v.a. X este independenta de sub σ-algebra G daca σ-algebrele σ (X) si G sunt independente.

Propozitia 1.3.2 O v.a. X este independenta de sub σ-algebra G daca sinumai daca

P A ∩ (X ≤ x) = P (A) P (X ≤ x) , ∀x ∈ R, A ∈ G.

Propozitia 1.3.3 Doua variabile X, Y sunt independente daca si numai daca

P (X ≤ x) ∩ (Y ≤ y) = P (X ≤ x) P (Y ≤ y) , ∀x, y ∈ R.

Daca X, Y sunt independente atunci E (XY ) = E (X) E (Y ) (reciproca nueste adevarata).Propozitia 1.3.4 Doua variabile X, Y sunt independente daca si numai daca

E (f (X) g (Y )) = E (f (X))E (g (Y )) ,

pentru toate functiile f, g boreliene marginite.

Este suficient a arata aceasta egalitate pentru o clasa suficient de bogatade functii f, g, de exemplu pentru functiile indicatoare. Daca X, Y au valoripozitive, este suficient ca egalitatea sa fie verificata pentru f (x) = exp (−λx),g (x) = exp (−µx), cu λ, µ > 0

1.3.5 Probabilitati echivalente

Definitia 1.3.4 Doua probabilitati P1,P2 definite pe acelasi spatiu (Ω,F)spunem ca sunt echivalente daca au aceleasi multimi neglijabile, adica

P1 (A) = 0 ⇔ P2 (A) = 0.

O proprietate adevarata P1-a.s. este deci adevarata P2-a.s.Daca P1,P2 sunt echivalente atunci exista o variabila Y , strict pozitiva, F-

masurabila, de medie 1 ın raport cu P, astfel ıncat dP2 = Y dP1 sau P2 (A) =∫A

Y dP1. Reciproc, daca Y este o variabila strict pozitiva, F-masurabila, demedie 1 ın raport cu P, relatia EP2 (Z) = EP1 (ZY ) defineste o probabilitateP2 echivalenta cu P1. Are deci loc

EP2 (Z) =∫

ZdP2 =∫

ZdP2

dP1dP1 =

∫ZY dP1 = EP1 (ZY )

Daca Y este doar pozitiva, avem ca P1 (A) = 0 ⇒ P2 (A) = 0 si spunemca P2 este absolut continua ın raport cu P1.

1.4 Variabile gaussiene

O variabila spunem ca este gaussiana de lege N (m,σ2

)daca

N (m,σ2

)=

1σ√

2πexp

(− (x−m)2

2σ2

).

Avem ca o v.a. constanta are o lege gaussiana de varianta nula ce corespundeunei mase Dirac. Masura Dirac δa a punctului a este o probabilitate pe Rastfel ıncat

∫R f (x) δa (dx) = f (a) si corespunde unei v.a. constante, egale cu

a.

Definitia 1.4.1 Un vector X = (X1, ..., Xn)T este gaussian daca orice com-

binatie liniaran∑

i=1

aiXi este o variabila gaussiana cu valori reale.

Vom caracteriza legea lui X prin vectorul medie si prin matricea sa decovarianta, Γ = [σi,j ]i,j=1,n , unde σi,j = E (XiXj)− E (Xi)E (Xj). Legea luiX admite o densitate daca matricea Γ este inversabila.

Daca doua variabile formeaza un cuplu gaussian de covarianta nula atunciele sunt independente.

Daca X,Y sunt gaussiene si independente atunci aX + bY si (X, Y ) sunttot gaussiene.

Reamintim Exemplul 1.3.1:

Propozitia 1.4.1Daca X este o variabila gaussiana de lege N (m,σ2

), avem

E(eλX

)= exp

(λm +

λ2σ2

2

), ∀λ ∈ R. (1)

Reciproc, daca are loc egalitatea (1) atunci variabila X este de lege N (m,σ2

).

1.5 Convergenta v.a.

Vom considera v.a. definite pe spatiul dat (Ω,F ,P).

1.5.1 Convergenta aproape sigura

Un sir de v.a. (Xn)n converge aproape sigur (a.s.) la X daca pentru aproapetoti ω, Xn (ω) −→ X (ω), n →∞.

Vom nota prin Xna.s.−−→ X.

Teorema convergentei monotone: Daca (Xn)n este un sir de v.a. monotonesi daca Xn

a.s.−−→ X atunci E (Xn) −→ E (X).

Teorema convergentei dominate a lui Lebesgue: Daca (Xn)n este un sirde v.a. convergente a.s. la X si daca exista v.a. integrabila Y astfel ıncat|Xn| ≤ Y , atunci E (Xn) −→ E (X).

Teorema 1.5.1 (Legea numerelor mari) Daca (Xi)i este un sir de v.a.,

echidistribuite, independente, de medie finita, atunci1n

n∑i=1

Xi converge a.s.

la E (X1).

1.5.2 Convergenta patratica

Vom nota ||X||2def=

√E (X2). Vom spune ca X ∈ L2 (Ω) daca ||X||2 < ∞.

Sirul (Xn)n de v.a. converge ın medie patratica la X daca ||Xn −X||2 =√E (Xn −X)2 −→ 0, n →∞.

Daca XnL2(Ω)−−−−→ X, atunci E

(X2

n

) −→ E(X2

). Reciproca este falsa.

Spatiul L2 (Ω) este un spatiu Hilbert ınzestrat cu produsul scalar 〈X, Y 〉 =∫Ω

XY dP. In particular el este complet.Daca un sir converge ın L2 atunci exista un subsir care converge a.s.Daca un sir uniform integrabil (de exemplu marginit) converge a.s., atunci

el converge ın L2.Legea numerelor mari: Daca (Xi)i este un sir de v.a., echidistribuite, in-

dependente, de medie finita, atunci1n

n∑i=1

Xi converge ın medie patratica la

E (X1).Daca un sir de v.a. gaussiene converge ın medie patratica, atunci limita

este o variabila gaussiana.

1.5.3 Convergenta ın probabilitate

Un sir de v.a. (Xn)n converge ın probabilitate la X daca

∀ε > 0,P (|Xn −X| ≥ ε) −→ 0, n →∞.

Vom nota prin XnP−→ X.

Convergenta a.s. implica convergenta ın probabilitate.Convergenta ın probabilitate implica convergenta a.s. a unui subsir.Convergenta patratica implica convergenta ın probabilitate.

1.5.4 Convergenta ın lege

Un sir de v.a. (Xn)n converge ın lege la X daca E (Φ (Xn)) −→ E (Φ (X)),n →∞, pentru orice functie continua si marginita Φ.

Vom nota prin XnL−→ X.

Convergenta ın lege este de asemenea definita de convergenta simpla afunctiilor caracterisice ale lui Xn respectiv X.

Daca X este o v.a. cu functia de repartitie F continua, si daca Xn este unsir de v.a. cu functia de repartitie Fn astfel ıncat Fn (x) −→ F (x), ∀x, atunciXn

L−→ X si reciproc.Convergenta ın probabilitate implica convergenta ın lege.

Teorema 1.5.2 (Teorema limita centrala) Daca (Xi)i este un sir de v.a.,echidistribuite, independente, de varianta finita σ2, atunci

n∑i=1

Xi − nE (X1)

σ√

n

L−→ N (0, 1) .

1.6 Procese stochastice

1.6.1 Filtrarea

Ne vor interesa fenomenele care depind de timp. Ceea ce este cunoscut lamomentul t este continut ın σ-algebra Ft.

Definitia 1.6.1 O filtrare este o familie crescatoare de sub σ-algebre din F .

O cerinta des ıntalnita va fi aceea ca multimile neglijabile sa fie incluse ın F0.O alta ipoteza obisnuita de lucru este ca filtrarea sa fie continua la dreapta,adica Ft = ∩s>tFs.

1.6.2 Procese

Un proces stochastic este o familie de variabile aleatoare (Xt)t∈[0,∞) definitepe acelasi spatiu de probabilitate.

Definitia 1.6.2 Un proces stochastic X = (Xt)t∈[0,∞) spunem ca este esteadaptat, ın raport cu filtrarea (Ft)t, daca Xt este Ft masurabil, pentru toti t.

Un proces stochastic spunem ca are traiectoriile continue (sau este continuu)daca aplicatiile t −→ Xt (ω) sunt continue pentru aproape toti ω.Un proces stochastic spunem ca este “cadlag” daca traiectoriile sale sunt con-tinue la dreapta si au limita la stanga.

Unui proces stochastic X ıi putem asocia filtrarea naturala FXt , adica

familia crescatoare de σ-algebre FXt = σ Xs : s ≤ t.

Definim acum procesele predictibile. Fie (Ω,F ,P) un spatiu ınzestrat cu fil-trarea (Ft)t. Numim σ-algebra de multimi predictibile, σ-algebra pe (0,∞)×Ωgenerata de multimi de forma (s, t]×A, 0 ≤ s ≤ t, A ∈ Fs.

Un proces spunem ca este predictibil daca aplicatia (t, ω) −→ Xt (ω) estemasurabila ın raport cu σ-algebra de multimi predictibile.

Spunem ca procesul Y este o modificare a lui X daca Xt = Yt, a.s. ∀t.Doua procese sunt egale ın lege daca pentru orice (t1, ..., tn) si orice n avem

(Xt1 , ..., Xtn) L= (Yt1 , ..., Ytn

).

1.6.3 Procese crescatoare

Un proces X spunem ca este crescator daca X0 = 0 si t −→ Xt este o functiecrescatoare, adica Xt (ω) ≤ Xs (ω), ∀t ≤ s , a.s.

Un proces X spunem ca are variatia marginita pe [0, T ] daca

supti

i

∣∣Xti+1 −Xti

∣∣ ≤ K,

unde sup este luat dupa divizarea (ti)i.Un proces X spunem ca are variatia finita pe [0, T ] daca

supti

i

∣∣Xti+1 −Xti

∣∣ < ∞,

unde sup este luat dupa divizarea (ti)i.

1.6.4 Procese gaussiene

Un proces X spunem ca este gaussian daca orice combinatie liniara finita a

lui (Xt)t≥0 este v.a. gaussiana, adica ∀n, ∀ti, 1 ≤ i ≤ n, ∀ai,n∑

i=1

aiXtieste o

v.a.r. gaussiana.Un proces gaussian este caracterizat de media si de covarianta sa.Un spatiu gaussian este un subspatiu vectorial ınchis al lui L2 (Ω) format

din v.a.r. gaussiene centrate.Spatiul gaussian generat de un proces gaussian este subspatiul lui L2 (Ω)

generat de v.a.r. centrate (Xt − E (Xt))t≥0, adica spatiul format de combinatiileliniare de aceste variabile centrate si de limitele lor ın medie patratica.

1.7 Media conditionata

1.7.1 Cazul discret

Fie A,B doua evenimente (submultimi ale lui Ω). Probabilitatea evenimentu-

lui A conditionat de B este P (A|B) =P (A ∩B)P (B)

, unde B are P (B) 6= 0.

Aplicatia P (·|B) este o probabilitate pe Ω.Putem defini acum media unei variabile ın raport cu aceasta lege. Con-

sideram cazul unei variabile X cu valori ın (x1, ..., xn). Fie B fixat si definimQ (A) = P (A|B). Deci

EQ (X) =∑

j

xjQ (X = xj) =∑

j

xjP ((X = xj) ∩B)

P (B).

Avem P ((X = xj) ∩B) =∫

B1X=xj dP, unde 1X=xj (ω) = 1 daca X (ω) = xj .

Din∑j

xj1X=xj= X obtinem

EQ (X) =1

P (B)

B

j

xj1X=xj dP =1

P (B)

B

XdP,

adica putem scrie∫

B

EQ (X) dP =∫

B

XdP(

= EQ (X)P (B)))

Vom nota E (X|B) = EQ (X).

Fie B σ-algebra generata de B, si definim v.a. E (X|B) = E (X|B) 1B +E (X|Bc)1Bc . Avem

D

E (X|B) dP =∫

D

XdP, ∀D ∈ B.

Numim E (X|B) media conditionata a lui X ın raport cu B si ea este o v.a.B masurabila.

Vom lua acum doua v.a. X, Y cu valori ın (x1, ..., xn) respectiv (y1, ..., yd),astfel ıncat P (Y = yi) 6= 0, ∀i.

Definim P (X = xj |Y = yi) = µ (xj , yi). Deci pentru toti yi, µ (·, yi) de-fineste o probabilitate pe (x1, ..., xn). Vom defini deci media conditionata alui X,

E (X|Y = yi) =∑

j

xjP (X = xj |Y = yi) =∑

j

xjµ (xj , yi) =

=1

P (Y = yi)

Y =yi

XdP.

Definim functia Ψ (yi) = E (X|Y = yi) si vom obtine∑

i

P (Y = yi)E (X|Y = yi) =∑

i

P (Y = yi) Ψ (yi) = E (Ψ (Y )) =

= E (E (X|Y )) = E (X)

Deci Ψ (Y ) = E (X|Y ) noteaza media conditionata a lui X ın raport cu Ysi verifica:

a) Ψ (Y ) este Y masurabila.b) E (Φ (Y )X) = E (Φ (Y )Ψ (X)), pentru toate functiile Φ.

1.7.2 Media conditionata ın raport cu o σ-algebra

Fie X o v.a.r. integrabila definita pe (Ω,F ,P) si G o sub σ-algebra a lui F .

Definitia 1.7.1 Media conditionata E (X|G) este unica v.a. astfel ıncata) este G masurabila,b) are loc

∫AE (X|G) dP =

∫A

XdP, ∀A ∈ G.

Este de asemenea, unica variabila G masurabila astfel ıncat E (E (X|G) Y ) =E (X Y ), pentru toate variabilele G masurabile.

In plus, daca X este de patrat integrabil,atunci E (X|G) este proiectia lui Xpe spatiul variabilelor aleatoare G masurabile, de patrat integrabil (adica estev.a. G masurabila care minimizeaza media E(|X − Y |2) dupa Y o variabila Gmasurabila).

1.7.3 Media conditionata ın raport cu o variabila

O vom defini la fel ca media conditionata ın raport cu σ-algebra σ (Y ). Mediaconditionata E (X|Y ) este o variabila masurabila ın raport cu σ-algebra gene-rata de Y , deci este o funtie de Y : exista ψ : R → R, boreliana astfel ıncatE (X|Y ) = ψ (Y ).

Media conditionata E (X|Y ) este caracterizata de:a) este o variabila σ (Y ) masurabila,b)

∫AE (X|Y ) dP =

∫A

XdP, ∀A ∈ σ (Y ).

Proprietatea b) este echivalenta cu E (E (X|Y )Φ (Y )) = E (XΦ(Y )), pen-tru toate functiile Φ boreliene marginite, adica

Y ∈B

E (X|Y ) dP =∫

Y ∈B

XdP, ∀B ∈ B.

Definim si varianta conditionata, Var (X|G) = E(X2|G)− E2 (X|G), care este

o v.a. pozitiva datorita inegalitatii lui Jensen.

1.7.4 Proprietati ale mediei conditionate

In ipoteza ca v.a. sunt integrabile, urmatoarele egalitati au loc a.s.:

a) (Liniaritatea) Fie a, b doua constante.

E (aX + bY |G) = aE (X|G) + bE (Y |G) ,

b) (Monotonia) Fie X, Y doua v.a astfel ıncat X ≤ Y . Atunci

E (X|G) ≤ E (Y |G) ,

c) E (E (X|G)) = E (X) ,

d) Daca X este G masurabila, atunci E (X|G) = X,

e) Daca X este G masurabila, atunci E (XY |G) = X E (Y |G) ,

f) Daca X este independenta de G, atunci E (X|G) = E (X) ,

g) Daca G, H sunt doua σ-algebre astfel ıncat G ⊂ H, atunci

E (E (X|G) |H) = E (E (X|H) |G) = E (X|G) .

O formula des utilizata este si E(∫ b

aXsds|G

)=

∫ b

aE (Xs|G) ds.

1.8 Martingale

1.8.1 Cazul discret

Fie filtrarea (Fn)n astfel ıncat F0 contine multimile neglijabile.

Definitia 1.8.1 Un sir de v.a.r. (Xn)n spunem ca este Fn martingala dacapentru orice n ∈ N, Xn este integrabil, Fn masurabil si E (Xn+1 |Fn) = Xn.

Are loc E (Xn+p |Fn) = Xn, ∀n, p ∈ N.Daca Xn = Y1 + · · ·+ Yn, unde Yi sunt independente, echidistribuite cen-

trate, atunci Xn este o martingala.O familie de vectori (Sn)n cu Sn ∈ Rd, este o martingala daca familiile(

Sin

)n

sunt martingale ∀1 ≤ i ≤ d.

1.8.2 Cazul continuu

Fie filtrarea (Ft)t astfel ıncat F0 contine multimile neglijabile.

Definitia 1.8.2 O familie de v.a. (Xt)t≥0 spunem ca este o Ft martingaladaca Xt este integrabil, Ft masurabil pentru orice t si E (Xt |Fs) = Xs, ∀s ≤ t.

Daca X este o martingala atunci E (Xt) = E (X0), ∀t.O proprietate utilizata ın finante: daca (Xt)t∈[0,T ] este o martingala atunci

procesul este complet determinat de valoarea sa terminala Xt = E (XT |Ft).

Definitia 1.8.3 O familie de v.a. (Xt)t≥0 spunem ca este o Ft supramartin-gala (respectiv submartingala) daca Xt este integrabil, Ft masurabil pentruorice t si E (Xt |Fs) ≤ Xs, ∀s ≤ t (respectiv E (Xt |Fs) ≥ Xs).

Exemplul 1.8.1 Daca X este o martingala atunci X2 este o submartingala.Daca X este o martingala si A un proces crescator atunci X + A este osubmartingala.

Vom spune ca X este o martingala daca filtrarea de referinta este filtrareanaturala a lui X. Remarcam ca daca X este o F martingala atunci nu esteneaparat o G martingala, daca Ft ⊂ Gt, ∀t.

O martingala continua cu variatie marginita este o constanta. Intr-adevar,daca V este variatia lui X, atunci

E(X2

t

)= E

[∑

i

(Xti+1 −Xti

)2]≤ E

[Vt sup

∣∣Xti+1 −Xti

∣∣] ≤

≤ K E[sup

∣∣Xti+1 −Xti

∣∣] ,

iar membrul drept converge la 0 a.s., cand rafinam partitia.

Propozitia 1.8.1 (Inegalitatea lui Doob) Daca X este o martingala continua,atunci

E(

sups∈[0,T ]

X2t

)≤ 4E

(X2

T

).

1.9 Timpi de oprire

1.9.1 Definitii

Reamintim interpretarea parametrului t ca timp si cea a σ-algebrei Ft cainformatii acumulate pana la momentul t. Vom acorda o atentie particularaasupra momentului T (ω) cand un fenomen se manifesta pentru prima oara.Este deci intuitiv ca evenimentul ω : T (ω) ≤ t, care apare doar atunci candfenomenul a aparut la momentul t, ar trebui sa fie o parte a informatiei acu-mulate pana la acel moment.

Definitia 1.9.1 Un timp de oprire este o variabila aleatoare, notata τ , cuvalori ın R∪ +∞ astfel ıncat τ ≤ t ∈ Ft, ∀t ∈ R.

O constanta pozitiva este un timp de oprire.

Propozitia 1.9.1 Fie X un proces masurabil continuu D o submultime ınchisa(sau deschisa) a lui R. Timpul de intrare al lui X ın D (sau timpul de iesireal lui X din Dc) definit de

τ (ω) =

inf t ≥ 0 : Xt (ω) ∈ D , daca t ≥ 0 : Xt (ω) ∈ D 6= ∅

+∞, daca t ≥ 0 : Xt (ω) ∈ D = ∅este un timp de oprire

Pentru a masura informatia acumulata pana la timpul de oprire τ , vomnota cu F∞ = σ (∪tFt); asociem unui timp de oprire τ , σ-algebra Fτ a eveni-mentelor anterioare lui τ , prin

Fτ = A ∈ F∞ : A ∩ τ ≤ t ∈ Ft, ∀t ∈ R

Daca T este un timp de oprire atunci este FT masurabil.Daca S, T sunt doi timpi de oprire atunci S∧T , S∨T sunt timpi de oprire.

In particular T ∧ t este un timp de oprire.Daca S, T sunt doi timpi de oprire astfel ıncat S ≤ T atunci FS ⊂ FT .

Fie (Xt)t≥0 un proces si T un timp de oprire. Definim XT (ω) = XT (ω) (ω).Daca un proces este continuu si adaptat atunci XT este FT masurabil.

1.9.2 Teoreme de oprire

Daca T este un timp de oprire si M este o Ft martingala, procesul Zt = Mt∧T

este o Ft martingala. In particular E (Mt∧T ) = E (M0).Urmatoarea teorema afirma ca proprietatea martingala este adevarata si

pentru timpi de oprire.

Teorema 1.9.1 (Teorema de oprire a lui Doob) Daca M este Ft martingalacontinua si daca S, T sunt doi timpi de oprire astfel ıncat S ≤ T ≤ K, undeK este o constanta finita, MT este integrabila si

E (MT |FS) = MS .

Rezultatul se extinde la orice timp de oprire daca martingala este uniformintegrabila.

Daca M este uniform integrabila se poate arata ca Mt converge a.s. ın L1

la M∞, pentru t →∞, si ca Ms = E (M∞ |Fs).

Propozitia 1.9.2 Daca pentru orice timp de oprire marginit E (XT ) = E (X0),procesul X este o martingala.

Remarca 1.9.1 Daca E (Xt) = E (X0), ∀t, procesul X nu este neaparat omartingala. De exemplu fie Xt =

∫ t

0Msds, unde M este o martingala de

medie nula.

Definitia 1.9.2 Un proces M adaptat cadlag este o martingala locala dacaexista un sir crescator de timpi de oprire τn −→ ∞ si (Mt∧τn)t≥0 este omartingala pentru orice n.

O martingala locala pozitiva este o supramartingala.O martingala locala uniform integrabila este o martingala.

1.10 Procese Markov

Un proces este Markov daca starea lui din viitor (la timpul t > s) este inde-pendenta de comportamentul trecut al procesului (la timpul t < s) data lamomentul prezent s.

Fie X un proces si (Ft) filtrarea sa canonica. Spunem ca procesul esteMarkov daca, pentru toti t, pentru toate variabilele marginite Y ∈ F∞, areloc

E (Y θt |Ft) = E (Y θt |Xt) ,

unde θ este operatorul de translatie definit prin Xs θt = Xs+t .O alta definitie este urmatoarea: pentru orice n, pentru toate functiile F

marginite, definite pe Rn, pentru toti t1 < t2 < · · · < tn

E (F (Xs+t1 , Xs+t2 , ..., Xs+tn) |Fs) = E (F (Xs+t1 , Xs+t2 , ..., Xs+tn) |Xs) .

In particular obtinem ca, pentru toate functiile f boreliene marginite

E (f (Xt) |Fs) = E (f (Xt) |Xs) , ∀s < t.

References

[1] Monique Jeanblanc, Cours de calcul stochastique, pagina personala,http://www.maths.univ-evry.fr/pages perso/jeanblanc/cours/M2 cours.pdf.

[2] Etienne Pardoux, Aurel Rascanu, Stochastic Differential Equations, ın cursde aparitie.

[3] Ioannis Karatzas, Steven E. Shreve, Brownian Motion and Stochastic Cal-culus, Springer Verlag, Berlin, 1988.

[4] Bernt Oksendal, , Stochastic Differential Equations, Springer Verlag,Berlin, a 6-a editie, 1998.