Introducere^‡n Analiza Stochastic‚aSMPF/Calcul stochastic_curs introductiv I... · Deflnit»ia...

39
Universitatea “Al.I. Cuza”, Ia¸ si Seminar de Matematici Financiare 29 octombrie 2009 Introducere ˆ ın Analiza Stochastic˘ a Partea I Lucian Maticiuc e-mail: [email protected]

Transcript of Introducere^‡n Analiza Stochastic‚aSMPF/Calcul stochastic_curs introductiv I... · Deflnit»ia...

  • Universitatea “Al.I. Cuza”, Iaşi

    Seminar de Matematici Financiare

    29 octombrie 2009

    Introducere ı̂n Analiza StochasticăPartea I

    Lucian Maticiuc

    e-mail: [email protected]

  • 1 Generalităţi

    În acest capitol reamintim noţiuni de bază ale teoriei probabilităţilor ce vor fiutilizate pe parcursul cursului.

    1.1 σ - algebra

    Fie Ω un spaţiu arbitrar ale cărui elemente le vom nota cu ω. O submulţimea lui Ω o vom numi eveniment. Menţionăm că, ı̂n cele mai multe cazuri,structura lui Ω nu este importantă. Totuşi, ı̂n situaţia ı̂n care se doreşteconstruirea unei variabile aleatoare de lege dată, este importantă cunoştereastructurii spaţiului Ω.

  • 1.1.1 Definiţia unei σ-algebre

    Definiţia 1.1.1 O σ-algebră pe Ω este o familie de părţi ale lui Ω ce conţinemulţimea vidă, este stabilă prin trecerea la complementară, la reuniuni numă-rabile şi la intersecţii numărabile.

    Un spaţiu măsurabil este un spaţiu ı̂nzestrat cu o σ-algebră.

    Propoziţia 1.1.1 O intersecţie de σ-algebre este o σ-algebră.

    Această propoziţie nu este adevărată pentru reuniuni.

    Cea mai mică σ-algebră ce conţine o familie de mulţimi este intersecţiatuturor σ-algebrelor ce conţin această familie.

    Exemplul 1.1.1 σ-algebra Borel pe R, notată BR, este cea mai mică σ-algebrăce conţine toate intervalele deschise (sau ı̂nchise, sau deschise la dreapta şiı̂nchise la stânga).

  • 1.1.2 Măsurabilitatea

    Definiţia 1.1.2 Fie (Ω,F) şi (E, E) două spaţii măsurabile. O aplicaţie f :Ω → E spunem că este (F , E)-măsurabilă dacă f−1 (A) ∈ F , ∀A ∈ E, unde

    f−1 (A)def= {ω ∈ Ω : f (ω) ∈ A} .

    O funcţie f : R→ R spunem că este boreliană dacă este (BR,BR)-măsurabilă.Această proprietatea este suficient dacă o verificăm pentru intervalele din R.

    Definiţia 1.1.3 Fie (Ω,F) un spaţiu măsurabil. O variabilă aleatoare reală(v.a.r.) X este o aplicaţie măsurabilă de la (Ω,F) la R.

    O constantă este o v.a., precum şi funcţia indicatoare a unei mulţimi aσ-algebrei F .Propoziţia 1.1.2 Dacă X este o v.a.r. G-măsurabilă şi dacă f este o funcţieboreliană, atunci f (X) este G-măsurabilă.

  • O v.a. G-măsurabilă este este limită crescătoare de v.a. de tipuln∑

    i=1

    ai1Ai ,

    unde Ai ∈ G.O funcţie boreliană este limită crescătoare de funcţii de tipul

    n∑

    i=1

    ai1Ai ,

    unde Ai este un interval.

    1.1.3 σ-algebre generate

    Definiţia 1.1.4 σ-algebra generată de o familie de mulţimi A este cea maimică σ-algebră ce conţine această această familie. Vom nota această σ-algebrăcu σ (A). Este şi intersecţia tuturor σ-algebrelor ce conţin A.Definiţia 1.1.5 σ-algebra generată de o variabilă aleatoare X definită pe(Ω,F) este mulţimea de părţi ale lui Ω de tipul X−1 (A), unde A ∈ BR.Vom nota această σ-algebră cu σ (X).

  • σ-algebră σ (X) este conţinută ı̂n F . Este şi cea mai mică σ-algebră pe Ωı̂n raport cu care X este măsurabilă.

    O v.a.r. X este G măsurabilă dacă σ (X) ⊂ G.Dacă Y este o aplicaţie de la Ω la R, σ (X) măsurabilă (adică Y −1 (A) ∈

    σ (X), ∀A ∈ BR sau σ (Y ) ⊂ σ (X)), atunci există o funcţie boreliană f : R→R astfel ı̂ncât Y = f (X), şi reciproc.

    Definiţia 1.1.6 σ-algebra generată de o familie de variabile aleatoare (Xt)t∈[0,T ]este cea mai mică σ-algebră ce conţine mulţimea

    {X−1t (A)

    }, pentru orice

    t ∈ [0, T ] şi A ∈ BR. O vom nota prin σ (Xt, t ∈ [0, T ]).

  • 1.2 Probabilitatea

    1.2.1 Definiţia

    O probabilitate pe (Ω,F) este o aplicaţie P : F → [0, 1] astfel ı̂ncât:a) P (Ω) = 1,b) P

    ( ∞⋃n=0

    An

    )=

    n∑i=1

    P (An), pentru An ∈ F , disjuncte două câte două.

    Notaţii: P (A) =∫

    AdP =

    ∫Ω1AdP, unde 1A este funcţia indicatoare.

    Avem P (A) + P (Ac) = 1, ∀A ∈ F .Dacă A ⊂ B atunci P (A) ≤ P (B) şi P (B) = P (A) + P (B −A).Dacă (An)n este un şir crescător (descrescător) de elemente din F , şi dacă

    A =⋃n

    An (respectiv A =⋂n

    An), atunci A ∈ F şi P (A) = limn→∞

    P (An).

    Teorema clasei monotone: Dacă P1, P2 sunt două probabilităţi pe (Ω,F)astfel ı̂ncât P1 (A) = P2 (A), ∀A ∈ C, unde C este o familie stabilă la intersecţiefinită şi care generează F . Atunci P1 = P2 pe F .

  • 1.2.2 Mulţimi neglijabile

    O mulţime spunem că este neglijabilă dacă este de probabilitate nulă.O reuniune numărabilă de mulţimi neglijabile este o mulţime neglijabilă.O proprietate este adevărată aproape sigur (a.s.) dacă este adevărată ı̂n

    afara unei mulţimi neglijabile. Vom spune de asemenea că proprietatea esteadevărată pentru aproape toţi ω.

    Un spaţiu (Ω,F ,P) spunem că este complet dacă el conţine toate mulţimileG astfel ı̂ncât inf {P (F ) : F ∈ F , G ⊂ F} = 0.

    1.3 Legea (distribuţia) unei variabile aleatoare

    Definiţia 1.1.5 Fie X o v.a. definită pe (Ω,F ,P). Legea (distribuţia) luiX este probabilitatea PX pe (R,BR) dată de PX (A) = P {ω : X (ω) ∈ A} =P (X ∈ A), A ∈ BR.

    Definim funcţia de repartiţie a variabilei X prin funcţia crescătoare datăde F : R→ R, F (x) = P (X ≤ x).

    Se mai poate utiliza ca definiţie şi P (X < x) dar modificările sunt minime.

  • Funcţia de repartiţie definită iniţial este continuă la dreapta, iar cealaltă estecontinuă la stânga; cele două funcţii sunt egale ı̂n toate punctele de continui-tate.

    Densitatea f (x) a unei variabile aleatoare este derivata funcţiei de repartiţie(dacă această derivată există). Putem scrie atunci P (X ∈ A) = ∫

    Af (x) dx.

    Dacă două v.a. au aceeaşi lege (sau aceeaşi funcţie de repartiţie sau aceeaşidensitate) spunem că ele sunt egale ı̂n lege.

    O observaţie utilă este următoarea: dacă X, Y sunt două v.a. astfel ı̂ncâtP (X ≤ a) = P (Y ≤ a), ∀a ∈ R, atunci X, Y au aceeaşi lege, notat X L= Y .

    1.3.1 Existenţa unei variabile aleatoare

    Pentru construirea unei variabile aleatoare de lege dată (de exemplu una gaus-siană) vom alege ca spaţiu Ω = R. Fie X : Ω → R, aplicaţia identitate şiprobabilitatea P dată de P (dω) = 1√

    2πexp

    (−ω22 dω

    ). Funcţia de repartiţie

    a lui X este FX (x) = P (X < x) =∫1ω

  • 1.3.2 Media (speranţa)

    Media (speranţa)unei v.a. X este∫Ω

    XdP şi o vom nota cu E (X) sau eventualcu EP (X). Pentru a calcula această integrală, folosim, conform definiţiei legiide probabilitate,

    ∫Ω

    XdP =∫R xdPX (x).

    Există v.a. care nu au medie.Spunem că X este integrabilă dacă |X| are medie. Spaţiul L1 (Ω) (spaţiul

    v.a. integrabile) conţine constantele, v.a. mărginite, v.a. majorate ı̂n valoareabsolută de o v.a. integrabilă.

    Dacă X admite o densitate f atunci E (X) =∫R xf (x) dx.

    Dacă cunoaştem E (Φ (X)) pentru toate funcţiile boreliene mărginite Φ,atunci cunoaştem legea lui X; dacă E (Φ (X)) = E (Φ (Y )), pentru toatefuncţiile boreliene mărginite Φ, atunci X L= Y . Menţionăm că egalitateaı̂n lege nu este egalitatea a.s.; de exemplu dacă X este o variabilă gaussianăcentrată, avem X L= −X, dar cele două variabile nu sunt egale a.s.

    Deci este suficient să verificăm egalitatea E (Φ (X)) = E (Φ (Y )) pentru oclasă suficient de bogată de funcţii, de exemplu funcţii indicatoare de borelienesau intervale, sau funcţii de forma eλx, λ ∈ R, pentru a avea X L= Y .

  • Funcţia caracteristică a unei v.a. este transformata Fourier a legii lui X,adică funcţia ψ (t)

    def= E

    (eitx

    )=

    ∫R e

    itxPX (dx). Funcţia caracteristică aunei v.a. caracterizează legea lui X ı̂n sensul că dacă ştim această funcţie,atunci putem determina legea variabilei. Funcţia Ψ (λ)

    def= E

    (eλX

    ), adică

    transformata Laplace, caracterizează şi ea legea unei variabile.

    Exemplul 1.3.1 Dacă X este o variabilă gaussiană de lege N (m,σ2), avem

    E(eλX

    )= exp

    (λm +

    λ2σ2

    2

    ), ∀λ ∈ R

    şi reciproc.

    Propoziţia 1.1.2 Au loc:a) Media este liniară ı̂n raport cu variabilele.b) Media este crescătoare.c) Inegalitatea lui Jensen: dacă Φ este o funcţie convexă astfel ı̂ncât Φ(X)

    este integrabilă, atunci

    Φ(E (X)) ≤ E (Φ (X)) .

  • 1.3.3 Integrabilitate uniformă

    O familie de v.a. (Xi)i∈I spunem că este uniform integrabilă dacă

    supi

    |Xi|≥a|Xi| dP −→ 0, a →∞

    Dacă există Y ∈ L1 (Ω) astfel ı̂ncât |Xi| ≤ Y , ∀i, atunci familia (Xi)i∈Ieste uniform integrabilă.

    1.3.4 Independenţa

    Definiţia 1.3.2 Dou ă σ-algebre F1,F2 sunt independente dacă P (A ∩B) =P (A)P (B), ∀A ∈ F1, B ∈ F2.

    Pentru ca două σ-algebre F1,F2 să fie independente este suficient ca P (A ∩B) =P (A)P (B), ∀A ∈ C1, B ∈ C2, unde Ci sunt familii stabile la intersecţii astfelı̂ncât σ (Ci) = Fi, i = 1, 2.Definiţia 1.3.3 O v.a. X este independentă de sub σ-algebra G dacă σ-algebrele σ (X) şi G sunt independente.

  • Propoziţia 1.3.2 O v.a. X este independentă de sub σ-algebra G dacă şinumai dacă

    P {A ∩ (X ≤ x)} = P (A) P (X ≤ x) , ∀x ∈ R, A ∈ G.Propoziţia 1.3.3 Două variabile X, Y sunt independente dacă şi numai dacă

    P {(X ≤ x) ∩ (Y ≤ y)} = P (X ≤ x) P (Y ≤ y) , ∀x, y ∈ R.Dacă X, Y sunt independente atunci E (XY ) = E (X) E (Y ) (reciproca nu

    este adevărată).Propoziţia 1.3.4 Două variabile X, Y sunt independente dacă şi numai dacă

    E (f (X) g (Y )) = E (f (X))E (g (Y )) ,

    pentru toate funcţiile f, g boreliene mărginite.

    Este suficient a arăta această egalitate pentru o clasă suficient de bogatăde funcţii f, g, de exemplu pentru funcţiile indicatoare. Dacă X, Y au valoripozitive, este suficient ca egalitatea să fie verificată pentru f (x) = exp (−λx),g (x) = exp (−µx), cu λ, µ > 0

  • 1.3.5 Probabilităţi echivalente

    Definiţia 1.3.4 Două probabilităţi P1,P2 definite pe acelaşi spaţiu (Ω,F)spunem că sunt echivalente dacă au aceleaşi mulţimi neglijabile, adică

    P1 (A) = 0 ⇔ P2 (A) = 0.

    O proprietate adevărată P1-a.s. este deci adevărată P2-a.s.Dacă P1,P2 sunt echivalente atunci există o variabilă Y , strict pozitivă, F-

    măsurabilă, de medie 1 ı̂n raport cu P, astfel ı̂ncât dP2 = Y dP1 sau P2 (A) =∫A

    Y dP1. Reciproc, dacă Y este o variabilă strict pozitivă, F-măsurabilă, demedie 1 ı̂n raport cu P, relaţia EP2 (Z) = EP1 (ZY ) defineşte o probabilitateP2 echivalentă cu P1. Are deci loc

    EP2 (Z) =∫

    ZdP2 =∫

    ZdP2dP1

    dP1 =∫

    ZY dP1 = EP1 (ZY )

    Dacă Y este doar pozitivă, avem că P1 (A) = 0 ⇒ P2 (A) = 0 şi spunemcă P2 este absolut continuă ı̂n raport cu P1.

  • 1.4 Variabile gaussiene

    O variabilă spunem că este gaussiană de lege N (m,σ2) dacă

    N (m,σ2) = 1σ√

    2πexp

    (− (x−m)

    2

    2σ2).

    Avem că o v.a. constantă are o lege gaussiană de varianţă nulă ce corespundeunei mase Dirac. Măsura Dirac δa a punctului a este o probabilitate pe Rastfel ı̂ncât

    ∫R f (x) δa (dx) = f (a) şi corespunde unei v.a. constante, egale cu

    a.

    Definiţia 1.4.1 Un vector X = (X1, ..., Xn)T este gaussian dacă orice com-

    binaţie liniarăn∑

    i=1

    aiXi este o variabilă gaussiană cu valori reale.

    Vom caracteriza legea lui X prin vectorul medie şi prin matricea sa decovarianţă, Γ = [σi,j ]i,j=1,n , unde σi,j = E (XiXj)− E (Xi)E (Xj). Legea luiX admite o densitate dacă matricea Γ este inversabilă.

  • Dacă două variabile formează un cuplu gaussian de covarianţă nulă atunciele sunt independente.

    Dacă X,Y sunt gaussiene şi independente atunci aX + bY şi (X, Y ) sunttot gaussiene.

    Reamintim Exemplul 1.3.1:

    Propoziţia 1.4.1Dacă X este o variabilă gaussiană de lege N (m,σ2), avem

    E(eλX

    )= exp

    (λm +

    λ2σ2

    2

    ), ∀λ ∈ R. (1)

    Reciproc, dacă are loc egalitatea (1) atunci variabila X este de lege N (m,σ2).

  • 1.5 Convergenţa v.a.

    Vom considera v.a. definite pe spaţiul dat (Ω,F ,P).

    1.5.1 Convergenţa aproape sigură

    Un şir de v.a. (Xn)n converge aproape sigur (a.s.) la X dacă pentru aproapetoţi ω, Xn (ω) −→ X (ω), n →∞.

    Vom nota prin Xna.s.−−→ X.

    Teorema convergenţei monotone: Dacă (Xn)n este un şir de v.a. monotoneşi dacă Xn

    a.s.−−→ X atunci E (Xn) −→ E (X).Teorema convergenţei dominate a lui Lebesgue: Dacă (Xn)n este un şir

    de v.a. convergente a.s. la X şi dacă există v.a. integrabilă Y astfel ı̂ncât|Xn| ≤ Y , atunci E (Xn) −→ E (X).Teorema 1.5.1 (Legea numerelor mari) Dacă (Xi)i este un şir de v.a.,

    echidistribuite, independente, de medie finită, atunci1n

    n∑i=1

    Xi converge a.s.

    la E (X1).

  • 1.5.2 Convergenţa pătratică

    Vom nota ||X||2def=

    √E (X2). Vom spune că X ∈ L2 (Ω) dacă ||X||2 < ∞.

    Şirul (Xn)n de v.a. converge ı̂n medie pătratică la X dacă ||Xn −X||2 =√E (Xn −X)2 −→ 0, n →∞.Dacă Xn

    L2(Ω)−−−−→ X, atunci E (X2n) −→ E (X2). Reciproca este falsă.

    Spaţiul L2 (Ω) este un spaţiu Hilbert ı̂nzestrat cu produsul scalar 〈X, Y 〉 =∫Ω

    XY dP. În particular el este complet.Dacă un şir converge ı̂n L2 atunci există un subşir care converge a.s.Dacă un şir uniform integrabil (de exemplu mărginit) converge a.s., atunci

    el converge ı̂n L2.Legea numerelor mari: Dacă (Xi)i este un şir de v.a., echidistribuite, in-

    dependente, de medie finită, atunci1n

    n∑i=1

    Xi converge ı̂n medie pătratică la

    E (X1).Dacă un şir de v.a. gaussiene converge ı̂n medie pătratică, atunci limita

    este o variabilă gaussiană.

  • 1.5.3 Convergenţa ı̂n probabilitate

    Un şir de v.a. (Xn)n converge ı̂n probabilitate la X dacă

    ∀ε > 0,P (|Xn −X| ≥ ε) −→ 0, n →∞.

    Vom nota prin XnP−→ X.

    Convergenţa a.s. implică convergenţa ı̂n probabilitate.Convergenţa ı̂n probabilitate implică convergenţa a.s. a unui subşir.Convergenţa pătratică implică convergenţa ı̂n probabilitate.

    1.5.4 Convergenţa ı̂n lege

    Un şir de v.a. (Xn)n converge ı̂n lege la X dacă E (Φ (Xn)) −→ E (Φ (X)),n →∞, pentru orice funcţie continuă şi mărginită Φ.

    Vom nota prin XnL−→ X.

    Convergenţa ı̂n lege este de asemenea definită de convergenţa simplă afuncţiilor caracterisice ale lui Xn respectiv X.

  • Dacă X este o v.a. cu funcţia de repartiţie F continuă, şi dacă Xn este unşir de v.a. cu funcţia de repartiţie Fn astfel ı̂ncât Fn (x) −→ F (x), ∀x, atunciXn

    L−→ X şi reciproc.Convergenţa ı̂n probabilitate implică convergenţa ı̂n lege.

    Teorema 1.5.2 (Teorema limită centrală) Dacă (Xi)i este un şir de v.a.,echidistribuite, independente, de varianţă finită σ2, atunci

    n∑i=1

    Xi − nE (X1)σ√

    n

    L−→ N (0, 1) .

  • 1.6 Procese stochastice

    1.6.1 Filtrarea

    Ne vor interesa fenomenele care depind de timp. Ceea ce este cunoscut lamomentul t este conţinut ı̂n σ-algebra Ft.Definiţia 1.6.1 O filtrare este o familie crescătoare de sub σ-algebre din F .O cerinţă des ı̂ntâlnită va fi aceea ca mulţimile neglijabile să fie incluse ı̂n F0.O altă ipoteză obişnuită de lucru este ca filtrarea să fie continuă la dreapta,adică Ft = ∩s>tFs.

    1.6.2 Procese

    Un proces stochastic este o familie de variabile aleatoare (Xt)t∈[0,∞) definitepe acelaşi spaţiu de probabilitate.

    Definiţia 1.6.2 Un proces stochastic X = (Xt)t∈[0,∞) spunem că este esteadaptat, ı̂n raport cu filtrarea (Ft)t, dacă Xt este Ft măsurabil, pentru toţi t.

  • Un proces stochastic spunem că are traiectoriile continue (sau este continuu)dacă aplicaţiile t −→ Xt (ω) sunt continue pentru aproape toţi ω.Un proces stochastic spunem că este “càdlàg” dacă traiectoriile sale sunt con-tinue la dreapta şi au limită la stânga.

    Unui proces stochastic X ı̂i putem asocia filtrarea naturală FXt , adicăfamilia crescătoare de σ-algebre FXt = σ {Xs : s ≤ t}.

    Definim acum procesele predictibile. Fie (Ω,F ,P) un spaţiu ı̂nzestrat cu fil-trarea (Ft)t. Numim σ-algebra de mulţimi predictibile, σ-algebra pe (0,∞)×Ωgenerată de mulţimi de forma (s, t]×A, 0 ≤ s ≤ t, A ∈ Fs.

    Un proces spunem că este predictibil dacă aplicaţia (t, ω) −→ Xt (ω) estemăsurabilă ı̂n raport cu σ-algebra de mulţimi predictibile.

    Spunem că procesul Y este o modificare a lui X dacă Xt = Yt, a.s. ∀t.Două procese sunt egale ı̂n lege dacă pentru orice (t1, ..., tn) şi orice n avem

    (Xt1 , ..., Xtn)L= (Yt1 , ..., Ytn).

  • 1.6.3 Procese crescătoare

    Un proces X spunem că este crescător dacă X0 = 0 şi t −→ Xt este o funcţiecrescătoare, adică Xt (ω) ≤ Xs (ω), ∀t ≤ s , a.s.

    Un proces X spunem că are variaţia mărginită pe [0, T ] dacă

    supti

    i

    ∣∣Xti+1 −Xti∣∣ ≤ K,

    unde sup este luat după divizarea (ti)i.Un proces X spunem că are variaţia finită pe [0, T ] dacă

    supti

    i

    ∣∣Xti+1 −Xti∣∣ < ∞,

    unde sup este luat după divizarea (ti)i.

  • 1.6.4 Procese gaussiene

    Un proces X spunem că este gaussian dacă orice combinaţie liniară finită a

    lui (Xt)t≥0 este v.a. gaussiană, adică ∀n, ∀ti, 1 ≤ i ≤ n, ∀ai,n∑

    i=1

    aiXtieste o

    v.a.r. gaussiană.Un proces gaussian este caracterizat de media şi de covarianţa sa.Un spaţiu gaussian este un subspaţiu vectorial ı̂nchis al lui L2 (Ω) format

    din v.a.r. gaussiene centrate.Spaţiul gaussian generat de un proces gaussian este subspaţiul lui L2 (Ω)

    generat de v.a.r. centrate (Xt − E (Xt))t≥0, adică spaţiul format de combinaţiileliniare de aceste variabile centrate şi de limitele lor ı̂n medie pătratică.

  • 1.7 Media condiţionată

    1.7.1 Cazul discret

    Fie A,B două evenimente (submulţimi ale lui Ω). Probabilitatea evenimentu-

    lui A condiţionat de B este P (A|B) = P (A ∩B)P (B) , unde B are P (B) 6= 0.Aplicaţia P (·|B) este o probabilitate pe Ω.Putem defini acum media unei variabile ı̂n raport cu această lege. Con-

    siderăm cazul unei variabile X cu valori ı̂n (x1, ..., xn). Fie B fixat şi definimQ (A) = P (A|B). Deci

    EQ (X) =∑

    j

    xjQ (X = xj) =∑

    j

    xjP ((X = xj) ∩B)

    P (B) .

    Avem P ((X = xj) ∩B) =∫

    B1X=xj dP, unde 1X=xj (ω) = 1 dacă X (ω) = xj .

  • Din∑j

    xj1X=xj = X obţinem

    EQ (X) =1

    P (B)

    B

    j

    xj1X=xj dP =1

    P (B)

    B

    XdP,

    adică putem scrie∫

    B

    EQ (X) dP =∫

    B

    XdP(

    = EQ (X)P (B)))

    Vom nota E (X|B) = EQ (X).Fie B σ-algebra generată de B, şi definim v.a. E (X|B) = E (X|B) 1B +

    E (X|Bc)1Bc . Avem∫

    D

    E (X|B) dP =∫

    D

    XdP, ∀D ∈ B.

    Numim E (X|B) media condiţionată a lui X ı̂n raport cu B şi ea este o v.a.B măsurabilă.

  • Vom lua acum două v.a. X, Y cu valori ı̂n (x1, ..., xn) respectiv (y1, ..., yd),astfel ı̂ncât P (Y = yi) 6= 0, ∀i.

    Definim P (X = xj |Y = yi) = µ (xj , yi). Deci pentru toţi yi, µ (·, yi) de-fineşte o probabilitate pe (x1, ..., xn). Vom defini deci media condiţionată alui X,

    E (X|Y = yi) =∑

    j

    xjP (X = xj |Y = yi) =∑

    j

    xjµ (xj , yi) =

    =1

    P (Y = yi)

    Y =yi

    XdP.

    Definim funcţia Ψ (yi) = E (X|Y = yi) şi vom obţine∑

    i

    P (Y = yi)E (X|Y = yi) =∑

    i

    P (Y = yi) Ψ (yi) = E (Ψ (Y )) =

    = E (E (X|Y )) = E (X)

  • Deci Ψ (Y ) = E (X|Y ) notează media condiţionată a lui X ı̂n raport cu Yşi verifică:

    a) Ψ (Y ) este Y măsurabilă.b) E (Φ (Y )X) = E (Φ (Y )Ψ (X)), pentru toate funcţiile Φ.

    1.7.2 Media condiţionată ı̂n raport cu o σ-algebră

    Fie X o v.a.r. integrabilă definită pe (Ω,F ,P) şi G o sub σ-algebră a lui F .Definiţia 1.7.1 Media condiţionată E (X|G) este unica v.a. astfel ı̂ncât

    a) este G măsurabilă,b) are loc

    ∫AE (X|G) dP = ∫

    AXdP, ∀A ∈ G.

    Este de asemenea, unica variabilă G măsurabilă astfel ı̂ncât E (E (X|G) Y ) =E (X Y ), pentru toate variabilele G măsurabile.

    În plus, dacă X este de pătrat integrabil,atunci E (X|G) este proiecţia lui Xpe spaţiul variabilelor aleatoare G măsurabile, de pătrat integrabil (adică estev.a. G măsurabilă care minimizează media E(|X − Y |2) după Y o variabilă Gmăsurabilă).

  • 1.7.3 Media condiţionată ı̂n raport cu o variabilă

    O vom defini la fel ca media condiţionată ı̂n raport cu σ-algebra σ (Y ). Mediacondiţionată E (X|Y ) este o variabilă măsurabilă ı̂n raport cu σ-algebra gene-rată de Y , deci este o funţie de Y : există ψ : R → R, boreliană astfel ı̂ncâtE (X|Y ) = ψ (Y ).

    Media condiţionată E (X|Y ) este caracterizată de:a) este o variabilă σ (Y ) măsurabilă,b)

    ∫AE (X|Y ) dP = ∫

    AXdP, ∀A ∈ σ (Y ).

    Proprietatea b) este echivalentă cu E (E (X|Y )Φ (Y )) = E (XΦ(Y )), pen-tru toate funcţiile Φ boreliene mărginite, adică

    Y ∈BE (X|Y ) dP =

    Y ∈BXdP, ∀B ∈ B.

    Definim şi varianţa condiţionată, Var (X|G) = E (X2|G)− E2 (X|G), care esteo v.a. pozitivă datorită inegalităţii lui Jensen.

  • 1.7.4 Proprietăţi ale mediei condiţionate

    În ipoteza că v.a. sunt integrabile, următoarele egalităţi au loc a.s.:

    a) (Liniaritatea) Fie a, b două constante.

    E (aX + bY |G) = aE (X|G) + bE (Y |G) ,b) (Monotonia) Fie X, Y două v.a astfel ı̂ncât X ≤ Y . Atunci

    E (X|G) ≤ E (Y |G) ,c) E (E (X|G)) = E (X) ,d) Dacă X este G măsurabilă, atunci E (X|G) = X,e) Dacă X este G măsurabilă, atunci E (XY |G) = X E (Y |G) ,f) Dacă X este independentă de G, atunci E (X|G) = E (X) ,g) Dacă G, H sunt două σ-algebre astfel ı̂ncât G ⊂ H, atunci

    E (E (X|G) |H) = E (E (X|H) |G) = E (X|G) .O formulă des utilizată este şi E

    (∫ ba

    Xsds|G)

    =∫ b

    aE (Xs|G) ds.

  • 1.8 Martingale

    1.8.1 Cazul discret

    Fie filtrarea (Fn)n astfel ı̂ncât F0 conţine mulţimile neglijabile.Definiţia 1.8.1 Un şir de v.a.r. (Xn)n spunem că este Fn martingală dacăpentru orice n ∈ N, Xn este integrabil, Fn măsurabil şi E (Xn+1 |Fn) = Xn.

    Are loc E (Xn+p |Fn) = Xn, ∀n, p ∈ N.Dacă Xn = Y1 + · · ·+ Yn, unde Yi sunt independente, echidistribuite cen-

    trate, atunci Xn este o martingală.O familie de vectori (Sn)n cu Sn ∈ Rd, este o martingală dacă familiile(

    Sin)n

    sunt martingale ∀1 ≤ i ≤ d.

    1.8.2 Cazul continuu

    Fie filtrarea (Ft)t astfel ı̂ncât F0 conţine mulţimile neglijabile.Definiţia 1.8.2 O familie de v.a. (Xt)t≥0 spunem că este o Ft martingalădacă Xt este integrabil, Ft măsurabil pentru orice t şi E (Xt |Fs) = Xs, ∀s ≤ t.

  • Dacă X este o martingală atunci E (Xt) = E (X0), ∀t.O proprietate utilizată ı̂n finanţe: dacă (Xt)t∈[0,T ] este o martingală atunci

    procesul este complet determinat de valoarea sa terminală Xt = E (XT |Ft).Definiţia 1.8.3 O familie de v.a. (Xt)t≥0 spunem că este o Ft supramartin-gală (respectiv submartingală) dacă Xt este integrabil, Ft măsurabil pentruorice t şi E (Xt |Fs) ≤ Xs, ∀s ≤ t (respectiv E (Xt |Fs) ≥ Xs).Exemplul 1.8.1 Dacă X este o martingală atunci X2 este o submartingală.Dacă X este o martingală şi A un proces crescător atunci X + A este osubmartingală.

    Vom spune că X este o martingală dacă filtrarea de referinţă este filtrareanaturală a lui X. Remarcăm că dacă X este o F martingală atunci nu esteneapărat o G martingală, dacă Ft ⊂ Gt, ∀t.

  • O martingală continuă cu variaţie mărginită este o constantă. Într-adevăr,dacă V este variaţia lui X, atunci

    E(X2t

    )= E

    [∑

    i

    (Xti+1 −Xti

    )2 ] ≤ E [Vt sup∣∣Xti+1 −Xti

    ∣∣] ≤

    ≤ K E [sup∣∣Xti+1 −Xti

    ∣∣] ,

    iar membrul drept converge la 0 a.s., când rafinăm partiţia.

    Propoziţia 1.8.1 (Inegalitatea lui Doob) Dacă X este o martingală continuă,atunci

    E(

    sups∈[0,T ]

    X2t

    )≤ 4E (X2T

    ).

  • 1.9 Timpi de oprire

    1.9.1 Definiţii

    Reamintim interpretarea parametrului t ca timp şi cea a σ-algebrei Ft cainformaţii acumulate până la momentul t. Vom acorda o atenţie particularăasupra momentului T (ω) când un fenomen se manifestă pentru prima oară.Este deci intuitiv că evenimentul {ω : T (ω) ≤ t}, care apare doar atunci cândfenomenul a apărut la momentul t, ar trebui să fie o parte a informaţiei acu-mulate până la acel moment.

    Definiţia 1.9.1 Un timp de oprire este o variabilă aleatoare, notată τ , cuvalori ı̂n R∪ {+∞} astfel ı̂ncât {τ ≤ t} ∈ Ft, ∀t ∈ R.

    O constantă pozitivă este un timp de oprire.

  • Propoziţia 1.9.1 Fie X un proces măsurabil continuu D o submulţime ı̂nchisă(sau deschisă) a lui R. Timpul de intrare al lui X ı̂n D (sau timpul de ieşireal lui X din Dc) definit de

    τ (ω) =

    {inf {t ≥ 0 : Xt (ω) ∈ D} , dacă {t ≥ 0 : Xt (ω) ∈ D} 6= ∅

    +∞, dacă {t ≥ 0 : Xt (ω) ∈ D} = ∅este un timp de oprire

    Pentru a măsura informaţia acumulată până la timpul de oprire τ , vomnota cu F∞ = σ (∪tFt); asociem unui timp de oprire τ , σ-algebra Fτ a eveni-mentelor anterioare lui τ , prin

    Fτ = {A ∈ F∞ : A ∩ {τ ≤ t} ∈ Ft, ∀t ∈ R}

    Dacă T este un timp de oprire atunci este FT măsurabil.Dacă S, T sunt doi timpi de oprire atunci S∧T , S∨T sunt timpi de oprire.

    În particular T ∧ t este un timp de oprire.Dacă S, T sunt doi timpi de oprire astfel ı̂ncât S ≤ T atunci FS ⊂ FT .

  • Fie (Xt)t≥0 un proces şi T un timp de oprire. Definim XT (ω) = XT (ω) (ω).Dacă un proces este continuu şi adaptat atunci XT este FT măsurabil.

    1.9.2 Teoreme de oprire

    Dacă T este un timp de oprire şi M este o Ft martingală, procesul Zt = Mt∧Teste o Ft martingală. În particular E (Mt∧T ) = E (M0).

    Următoarea teoremă afirmă că proprietatea martingală este adevărată şipentru timpi de oprire.

    Teorema 1.9.1 (Teorema de oprire a lui Doob) Dacă M este Ft martingalăcontinuă şi dacă S, T sunt doi timpi de oprire astfel ı̂ncât S ≤ T ≤ K, undeK este o constantă finită, MT este integrabilă şi

    E (MT |FS) = MS .

    Rezultatul se extinde la orice timp de oprire dacă martingala este uniformintegrabilă.

  • Dacă M este uniform integrabilă se poate arăta că Mt converge a.s. ı̂n L1

    la M∞, pentru t →∞, şi că Ms = E (M∞ |Fs).Propoziţia 1.9.2 Dacă pentru orice timp de oprire mărginit E (XT ) = E (X0),procesul X este o martingală.

    Remarca 1.9.1 Dacă E (Xt) = E (X0), ∀t, procesul X nu este neapărat omartingală. De exemplu fie Xt =

    ∫ t0

    Msds, unde M este o martingală demedie nulă.

    Definiţia 1.9.2 Un proces M adaptat càdlàg este o martingală locală dacăexistă un şir crescător de timpi de oprire τn −→ ∞ şi (Mt∧τn)t≥0 este omartingală pentru orice n.

    O martingală locală pozitivă este o supramartingală.O martingală locală uniform integrabilă este o martingală.

  • 1.10 Procese Markov

    Un proces este Markov dacă starea lui din viitor (la timpul t > s) este inde-pendentă de comportamentul trecut al procesului (la timpul t < s) dată lamomentul prezent s.

    Fie X un proces şi (Ft) filtrarea sa canonică. Spunem că procesul esteMarkov dacă, pentru toţi t, pentru toate variabilele mărginite Y ∈ F∞, areloc

    E (Y ◦ θt |Ft) = E (Y ◦ θt |Xt) ,unde θ este operatorul de translaţie definit prin Xs ◦ θt = Xs+t .

    O altă definiţie este următoarea: pentru orice n, pentru toate funcţiile Fmărginite, definite pe Rn, pentru toţi t1 < t2 < · · · < tnE (F (Xs+t1 , Xs+t2 , ..., Xs+tn) |Fs) = E (F (Xs+t1 , Xs+t2 , ..., Xs+tn) |Xs) .

    În particular obţinem că, pentru toate funcţiile f boreliene mărginite

    E (f (Xt) |Fs) = E (f (Xt) |Xs) , ∀s < t.

  • References

    [1] Monique Jeanblanc, Cours de calcul stochastique, pagina personală,http://www.maths.univ-evry.fr/pages perso/jeanblanc/cours/M2 cours.pdf.

    [2] Etienne Pardoux, Aurel Răşcanu, Stochastic Differential Equations, ı̂n cursde apariţie.

    [3] Ioannis Karatzas, Steven E. Shreve, Brownian Motion and Stochastic Cal-culus, Springer Verlag, Berlin, 1988.

    [4] Bernt Oksendal, , Stochastic Differential Equations, Springer Verlag,Berlin, a 6-a ediţie, 1998.