Download - Calculo estocastico

Transcript
Page 1: Calculo estocastico

Calculo estocastico

David NualartUniversitat de Barcelona

1

Page 2: Calculo estocastico

1 Probabilidades y procesos estocasticos

1.1 Conceptos basicos del calculo de probabilidades

Recordemos en primer lugar algunas definiciones generales del calculo deprobabilidades.

Un espacio de probabilidad es una terna (Ω,F , P ) formada por:

(i) Un conjunto Ω que representa el conjunto de los posibles resultados deuna cierta experiencia aleatoria.

(ii) Una familia F de subconjuntos de Ω que tiene estructura de σ-algebra:

a) ∅ ∈ Fb) Si A ∈ F , su complementario Ac tambien pertenece a Fc) A1, A2, . . . ∈ F =⇒ ∪∞i=1Ai ∈ F

(iii) Una aplicacion P : F → [0, 1] que cumple:

a) P (∅) = 0, P (Ω) = 1

b) Si A1, A2, . . . ∈ F son conjuntos disjuntos dos a dos (es decir, Ai ∩Aj = ∅ si i 6= j), entonces

P (∪∞i=1Ai) =∑∞

i=1 P (Ai)

Los elementos de la σ-algebra F se denominan sucesos y la aplicacion P sedenomina una probabilidad, de forma que tenemos la siguiente interpretacionde este modelo:

P (F )=“probabilidad de que el suceso F se realice”

Si P (F ) = 1, diremos que el suceso F ocurre con probabilidad uno, o casiseguramente.

Las propiedades a) y b) permiten deducir algunas reglas basicas delcalculo de probabilidades:

P (A ∪B) = P (A) + P (B) si A ∩B = ∅P (Ac) = 1− P (A)

A ⊂ B =⇒ P (A) ≤ P (B).

2

Page 3: Calculo estocastico

Ejemplo 1 Lanzamos un dado.

Ω = 1, 2, 3, 4, 5, 6F = P(Ω) (F contiene todos los subconjuntos de Ω)

P (ωi) =1

6, para i = 1, . . . , 6

Ejemplo 2 Elegimos un numero al azar en el intervalo [0, 2]. Ω = [0, 2], F esla σ-algebra de Borel (generada por los intervalos de [0, 2]). La probabilidadde cualquier intervalo [a, b] ⊂ [0, 2] sera

P ([a, b]) =b− a

2.

Se dice que un espacio de probabilidad (Ω,F , P ) es completo si dado unsuceso A de probabilidad cero, todos los subconjuntos de A pertenecen a laσ-algebra F . Un espacio de probabilidad siempre se puede completar substi-tuyendo la σ-algebra F por una σ-algebra mayor formada por los conjuntosde la forma F ∪ A, donde F ∈ F y A es un subconjunto de un conjunto deF de probabilidad cero.

Si U es una familia de subconjuntos de Ω, la mas pequena σ-algebra quecontiene a U es, por definicion,

σ(U) = ∩G,G es una σ-algebra, U ⊂ G ,

y se denomina la σ-algebra generada por U . Por ejemplo, la σ-algebra gen-erada por los conjuntos abiertos (o por los rectangulos) de Rn se denominala σ-algebra de Borel de Rn y la representaremos por BRn .

Ejemplo 3 Consideremos una particion finita P = A1, . . . , An de Ω. La σ-algebra generada por P esta formada por todas las uniones de los elementosde la particion (2n en total).

Una variable aleatoria es una aplicacion

ΩX−→ R

ω → X(ω)

que es F -medible, es decir, X−1(B) ∈ F , para todo conjunto B de la σ-algebra de Borel de R.

3

Page 4: Calculo estocastico

• Una variable aleatoria determina una σ-algebra X−1(B), B ∈ BR ⊂F que se denomina la σ-algebra generada por X.

• Una variable aleatoria determina una probabilidad en la σ-algebra deBorel BR definida por PX = P X−1, es decir,

PX(B) = P (X−1(B)) = P (ω : X(ω) ∈ B)

La probabilidad PX se denomina la ley o distribucion de la variable X.

Diremos que una variable aleatoria X tiene densidad de probabilidad fX

si fX(x) es una funcion positiva, medible respecto de la σ-algebra de Borely tal que

P (a < X < b) =

∫ b

a

fX(x)dx,

para todo a < b.Las variables discretas (que toman un conjunto finito o numerable de

valores distintos xk) no tienen densidad y su ley esta determinada por lafuncion de probabilidad :

pk = P (X = xk).

Ejemplo 4 Una variable aleatoria tiene ley normal N(m,σ2) si

P (a < X < b) =1√

2πσ2

∫ b

a

e−(x−m)2

2σ2 dx

para todo par de numeros reales a < b.

Ejemplo 5 Una variable aleatoria tiene ley binomial B(n, p) si

P (X = k) =

(n

k

)pk(1− p)n−k,

para k = 0, 1, . . . , n.

La distribucion de una variable aleatoria X puede caracterizarse mediantesu funcion de distribucion definida como la probabilidad acumulada:

FX(x) = P (X ≤ x) = PX ((−∞, x])

4

Page 5: Calculo estocastico

• La funcion FX : R→[0, 1] es creciente, continua por la derecha y conlımites iguales a cero en −∞ y 1 en +∞.

• Si la variable X tiene densidad fX , entonces,

FX(x) =

∫ x

−∞fX(y)dy,

y si la densidad es continua, F ′X(x) = fX(x).

La esperanza matematica de una variable aleatoria X se define como laintegral de X respecto de la probabilidad P , considerada como una medidaen el espacio (Ω,F). En particular, si X es una variable elemental que tomalos valores α1, . . . , αn en los conjuntos A1, . . . , An, su esperanza valdra

E(X) =n∑

i=1

αiP (Ai).

El calculo de la esperanza de una variable aleatoria se efectua integrando lafuncion x respecto de la ley de probabilidad de la variable. Es decir, si X esuna variable que tiene esperanza (o sea E(|X|) < ∞) se tiene

E(X) =

Ω

X(ω)dP (ω) =

∫ ∞

−∞xdPX(x).

Mas generalmente, si g : R → R es una funcion medible respecto de la σ-algebra de Borel y E(|g(X)|) < ∞, entonces la esperanza de la variable g(X)se puede calcular integrando la funcion g respecto de la ley de la variable X:

E(g(X)) =

Ω

g(X(ω))dP (ω) =

∫ ∞

−∞g(x)dPX(x).

La integral∫∞−∞ g(x)dPX(x) se calcula utilizando la densidad o funcion de

probabilidad de la variable X:

∫ ∞

−∞g(x)dPX(x) =

∫∞−∞ g(x)fX(x)dx, fX(x) es la densidad de X∑k g(xk)P (X = xk), X variable discreta

5

Page 6: Calculo estocastico

Ejemplo 6 Si X es una variable aleatoria con ley normal N(0, σ2) y λ es unnumero real,

E(exp (λX)) =1√

2πσ2

∫ ∞

−∞eλxe−

x2

2σ2 dx

=1√

2πσ2e

σ2λ2

2

∫ ∞

−∞e−

(x−σ2λ)2

2σ2 dx

= eσ2λ2

2 .

La varianza de una variable aleatoria X se define por

σ2X = Var(X) = E((X − E(X))2) = E(X2)− [E(X)]2 .

La varianza nos mide el grado de dispersion de los valores de la variablerespecto de su esperanza. Por ejemplo, si X es una variable con ley normalN(m, σ2) se tiene

P (m− 1.96σ ≤ X ≤ m + 1.96σ) = P (−1.96 ≤ X −m

σ≤ 1.96)

= Φ(1.96)− Φ(−1.96) = 0.95,

donde Φ es la funcion de distribucion de la ley N(0, 1). Es decir, la probabil-idad de que la variable X tome valores en el intervalo [m− 1.96σ,m+1.96σ]es igual a 0.95.

Diremos que X = (X1, . . . , Xn) es un vector aleatorio n-dimensional sisus componentes son variables aleatorias.

La esperanza de un vector aleatorio n-dimensional X sera el vector

E(X) = (E(X1), . . . , E(Xn))

La matriz de covarianzas de un vector aleatorio n-dimensional X es, pordefinicion, la matriz ΓX = (cov(Xi, Xj))1≤i,j≤n, donde

cov(Xi, Xj) = E [(Xi − E(Xi)) (Xj − E(Xj))] .

Es decir, los elementos de la diagonal de esta matriz son las varianzas de lasvariables Xj y fuera de la diagonal encontramos las covarianzas entre dosvariables Xi y Xj.

6

Page 7: Calculo estocastico

Como en el caso de variables aleatorias se introduce la ley o distribucionde un vector aleatorio n-dimensional X como la probabilidad definida en laσ-algebra de Borel BRn por

PX(B) = P (X−1(B)) = P (X ∈ B).

Diremos que un vector aleatorio n-dimensional X tiene una ley normalN = (m, Γ), donde m ∈ Rn, y Γ es una matriz simetrica y definida positiva,si

P (ai ≤ Xi ≤ bi, i = 1, . . . , n)

=

∫ bn

an

· · ·∫ b1

a1

(2π det Γ)−n2 e−

12

Pni,j=1(xi−mi)(xj−mj)Γ

−1ij dx1 · · · dxn.

En tal caso, se tiene, m = E(X) y Γ = ΓX .Si la matrix Γ es una matriz diagonal

Γ =

σ21 · · · 0...

. . ....

0 · · · σ2n

entonces la densidad del vector X sera el producto de n densidades normalesunidimensionales:

fX(x1, . . . , xn) =n∏

i=1

(1√2πσ2

i

e− (x−mi)

2

2σ2i

).

Existen tambien leyes normales degeneradas, en las que la matriz Γ essingular. En este caso, no existe la densidad de probabilidad, y la ley de Xqueda determinada por su funcion caracterıstica:

E(eit′X

)= exp

(it′m− 1

2t′Γt

),

donde t ∈ Rn . En esta formula t′ es un vector lınea (matriz 1× n) y t es unvector columna (matriz n× 1).

Si X es un vector normal n-dimensional con ley N(m, Γ) y A es unamatriz m × n, entonces AX es un vector normal m-dimensional con leyN(Am, AΓA′).

7

Page 8: Calculo estocastico

Diremos que una variable tiene media de orden p ≥ 1 si E(|X|p) < ∞.En tal caso, se define el momento de orden p de la variable aleatoria X como

mp = E(Xp).

El conjunto de las variables que tienen media de orden p se representa porLp(Ω,F , P ).

Sea X una variable aleatoria con funcion caracterıstica

ϕX(t) = E(eitX).

Los momentos de la variable aleatoria puede calcularse a partir de las derivadasde la funcion caracterıstica en el origen

mn =1

inϕ

(n)X (t)|t=0.

Recordemos algunas desigualdades importantes en el calculo de probabil-idades:

• Desigualdad de Tchebychev: Si λ > 0

P (|X| > λ) ≤ 1

λp E(|X|p).

• Desigualdad de Schwartz:

E(XY ) ≤√

E(X2)E(Y 2).

• Desigualdad de Holder:

E(XY ) ≤ [E(|X|p)] 1p [E(|Y |q)] 1

q ,

donde p, q > 1 y 1p

+ 1q

= 1.

• Desigualdad de Jensen: Si ϕ : R→ R es una funcion convexa tal que lasvariables X y ϕ(X) tienen esperanza, entonces,

ϕ(E(X)) ≤ E(ϕ(X)).

En particular si ϕ(x) = |x|p, con p ≥ 1, tendremos

|E(X)|p ≤ E(|X|p).

8

Page 9: Calculo estocastico

Recordemos los diferentes modos de convergencia de una sucesion de vari-ables aleatorias Xn, n = 1, 2, 3, . . .:

Convergencia casi segura: Xnc.s.−→ X, si

limn→∞

Xn(ω) = X(ω),

para todo ω /∈ N , donde P (N) = 0.

Convergencia en probabilidad: XnP−→ X, si

limn→∞

P (|Xn −X| > ε) = 0,

para todo ε > 0.

Convergencia en media de orden p ≥ 1: XnLp−→ X, si

limn→∞

E(|Xn −X|p) = 0.

Convergencia en ley: XnL−→ X, si

limn→∞

FXn(x) = FX(x),

para todo punto x de continuidad de la funcion de distribucion FX .

• La convergencia en media de orden p implica la convergencia en prob-abilidad ya que, debido a la desigualdad de Tchebychev tendremos

P (|Xn −X| > ε) ≤ 1

εpE(|Xn −X|p).

• La convergencia casi segura implica la convergencia en probabilidad(esto es mas difıcil de demostrar).

• La convergencia casi segura implica la convergencia en media de ordenp ≥ 1, si las variables aleatorias Xn estan acotadas por una variablealeatoria integrable Y (teorema de convergencia dominada):

|Xn| ≤ Y, E(Y ) < ∞.

9

Page 10: Calculo estocastico

La convergencia en ley es diferente de los otros tipos de convergencia, yaque lo que nos interesa es la ley de las variables y no sus valores particulares.

Un concepto fundamental en probabilidades es el de independencia. Dossucesos A,B ∈ F se dicen independientes si

P (A ∩B) = P (A)P (B).

Si tenemos una coleccion finita o infinita de sucesos Ai, i ∈ I, diremosque los sucesos de la coleccion son independientes si

P (Ai1 ∩ · · · ∩ Aik) = P (Ai1) · · ·P (Aik)

para todo conjunto finito de ındices i1, . . . , ik ⊂ I.Una coleccion de conjuntos de sucesos Gi, i ∈ I diremos que es indepen-

diente si cualquier coleccion de sucesos Ai, i ∈ I tal que Ai ∈ Gi para todoi ∈ I, es independiente.

Una coleccion de variables aleatorias Xi, i ∈ I se dice que es indepen-diente si la coleccion de σ-algebras

X−1

i (BRn), i ∈ I

lo es. Esto significaque

P (Xi1 ∈ Bi1 , . . . , Xik ∈ Bik) = P (Xi1 ∈ Bi1) · · ·P (Xik ∈ Bik),

para todo conjunto finito de ındices i1, . . . , ik ⊂ I, donde los Bj son con-juntos de Borel.

Si dos variables aleatorias reales X, Y son independientes y tienen esper-anza finita, entonces el producto XY tiene esperanza finita y se cumple larelacion

E(XY ) = E(X)E(Y ) .

Mas generalmente, si las variables X1, . . . , Xn son independientes,

E [g1(X1) · · · gn(Xn)] = E [g1(X1)] · · ·E [gn(Xn)] ,

donde las gi son funciones medibles tales que E [|gi(Xi)|] < ∞.

Las componentes de un vector aleatorio son independientes sı y solo sı sudensidad o funcion de probabilidad es igual al producto de las densidades ofunciones de probabilidad de cada componente.

10

Page 11: Calculo estocastico

1.2 Procesos estocasticos

Un proceso estocastico es una familia de variables aleatorias reales Xt, t ≥ 0definidas en un espacio de probabilidad (Ω,F , P ).

El conjunto de parametros [0,∞) representa el tiempo y en algunos casossupondremos que es un intervalo acotado [0, T ], o el conjunto los numerosnaturales (procesos a tiempo discreto).

Per cada ω ∈ Ω, la aplicacion

t −→ Xt(ω)

se dnomina una trayectoria del proceso estocastico.Si fijamos un conjunto finito de instantes 0 ≤ t1 < · · · < tn tendremos

un vector aleatorio(Xt1 , . . . , Xtn) : Ω −→ Rn.

Las distribuciones de probabilidad Pt1,...,tn = P (Xt1 , . . . , Xtn)−1 se denom-inan las distribuciones en dimension finita del proceso.

El siguiente teorema debido a Kolmogorov asegura la existencia de unproceso estocastico asociado a una familia de distribuciones en dimensionfinita que satisfagan una condicion de compatibilidad.

Teorema 1 Consideremos una familia de probabilidades

Pt1,...,tn , 0 ≤ t1 < · · · < tn, n ≥ 1

tales que:

1. Pt1,...,tn es una probabilidad en Rn

2. (Condicion de compatibilidad): Si 0 ≤ s1 < · · · < sm ⊂ 0 ≤ t1 <· · · < tn, entonces

Pt1,...,tn π−1 = Ps1,...,sm

donde π : Rn → Rm es la proyeccion natural asociada a los dos con-juntos de ındices.

Entonces, existe un proceso estocastico Xt, t ≥ 0 que tiene la familiaPt1,...,tn como distribuciones en dimension finita.

11

Page 12: Calculo estocastico

La media y la autocovarianza de un proceso estocastico se definen comosigue:

mX(t) = E(Xt)

ΓX(s, t) = Cov(Xs, Xt)

= E((Xs −mX(s))(Xt −mX(t)).

La varianza del proceso X se define por

σ2X(t) = ΓX(t, t) = Var(Xt).

Ejemplo 7 Consideremos el proceso estocastico

Xt = A cos(ϕ + λt),

donde A y ϕ son variables aleatorias independientes tales que E(A2) < ∞ yϕ tiene ley uniforme en [0, 2π]. En este caso,

mX(t) = 0

ΓX(s, t) =1

2E(A2) cos λ(t− s).

Se dice que un proceso estocastico Xt, t ≥ 0 es gaussiano o normal sisus distribuciones en dimension finita son leyes normales multidimensionales.

Observamos que en el caso de un proceso gaussiano, la media mX(t) yla autocovarianza ΓX(s, t) determinan las distribuciones en dimension finitadel proceso.

La media mX(t) y la varianza σ2X(t) nos permiten conocer donde se

concentran los valores de la variable Xt ası como su grado de dispersion,para cada instante t fijo. Por ejemplo, en el caso de un proceso gaussiano,

P (mX(t)− 2σX(t) ≤ Xt ≤ mX(t) + 2σX(t)) w 0.95.

Notemos que la probabilidad de que las trayectorias del proceso estencomprendidas entre las curvas mX(t) − 2σX(t) y mX(t) − 2σX(t) es muchomas difıcil de calcular.

12

Page 13: Calculo estocastico

Ejemplo 8 Consideremos un proceso gaussiano Xt, t ∈ [0, 1] tal que lasvariables aleatorias Xt son independientes y con ley N(0, σ2). La media yautocovarianza de este proceso son

mX(t) = 0

ΓX(s, t) =

1 si s = t0 si s 6= t

Se dice que un proceso estocastico Xt, t ≥ 0 es una version de otroproceso X ′

t, t ≥ 0 si para cada t ≥ 0

PXt = X ′t = 1.

Se dice tambien que ambos procesos son equivalentes. Dos procesos equiva-lentes puede tener trayectorias diferentes (vease el Ejercicio 1.6).

Diremos que el proceso Xt, t ≥ 0 es continuo en probabilidad si paratodo ε > 0 y todo t ≥ 0

lims→t

P (|Xt −Xs| > ε) = 0.

Consideremos un proceso estocastico Xt, t ≥ 0 tal que E (|Xt|p) < ∞,para todo t ≥ 0, donde p ≥ 1. Diremos que el proceso Xt, t ≥ 0 es continuoen media de orden p si

lims→t

E (|Xt −Xs|p) = 0.

La continuidad en media de orden p implica la continuidad en probabilidad.Sin embargo, la continuidad en media de orden p no implica necesariamentela continuidad de las trayectorias.

Ejemplo 9 El proceso de Poisson Nt, t ≥ 0 es un proceso estocastico car-acterizado por la ssiguientes propiedades:

i) Nt = 0,

ii) Fijados n instantes 0 ≤ t1 < · · · < tn los incrementos Ntn−Ntn−1 , . . . , Nt2−Nt1 , son variables aleatorias independientes,

13

Page 14: Calculo estocastico

iii) Si s < t, el incremento Nt − Ns tiene una ley de Poisson de parametroλ(t− s), es decir

P (Nt −Ns = k) = e−λ(t−s) [λ(t− s)]k

k!,

k = 0, 1, 2, . . .

Se puede construir un proceso de Poisson de la forma siguiente. Consid-eremos una sucesion Yn, n ≥ 1 de variables aleatorias independientes y conley geometrica de parametro λ. Es decir, para todo x ≥ 0,

P (Yn ≥ x) = e−λx.

Pongamos T0 = 0 y para n ≥ 1,

Tn = Y1 + · · ·+ Yn.

Entonces, el proceso Nt definido por

Nt = n si Tn ≤ t < Tn+1

es un proceso de Poisson de parametro λ.Por consiguiente, las trayectorias del proceso de Poisson tienen saltos de

amplitud 1 y son constantes en cada par de saltos. Los tiempos entre cadapar de saltos son variables aleatorias independientes con leyes exponencialesde parametro λ. Por tanto, las trayectorias no son continuas, aunque si quelos son en media cuadratica:

E[(Nt −Ns)

2] =∞∑

k=1

e−λ(t−s)k2 [λ(t− s)]k

k!

= λ(t− s) + [λ(t− s)]2s→t−→ 0.

Acotaciones adecuadas de los momentos de los incrementos del proceso,permiten deducir la continuidad de las trayectorias. Este es el contenido delsiguiente criterio de continuidad, debido a Kolmogorov.

14

Page 15: Calculo estocastico

Proposicion 2 (Criterio de continuidad) Supongamos que un proceso es-tocastico Xt, t ≥ 0 cumple la condicion siguiente:

E (|Xt −Xs|p) ≤ cT |t− s|α (1)

para todo 0 ≤ s < t ≤ T , donde a > 1 y p > 0. Entonces existe una versiondel proceso estocastico Xt que tiene trayectorias continuas.

Ejemplo 10 El proceso de Poisson no cumple la condicion (1).

La condicion (1) nos permide ademas tener informacion sobre la regu-laridad de las trayectorias. En efecto, fijemos un intervalo de tiempo [0, T ].Entonces, para cada ε > 0 existe una variable aleatoria Gε,T tal que, conprobabilidad uno,

|Xt(ω)−Xs(ω)| ≤ Gε,T (ω)|t− s|αp−ε, (2)

para todo s, t ∈ [0, T ]. Ademas, E(Gpε,T ) < ∞ para todo p ≥ 1.

1.3 Movimiento browniano

En 1828 el botanico ingles Robert Brown observo que los granos de polen ensuspension se movıan de forma irregular. Posteriormente se descubrio queeste fenomeno es debido a los choques aleatorios de las partıculas de polencon las moleculas del lıquido. En los anos 20 Norbert Wiener presento unmodelo matematico para este movimiento basado en la teorıa de los procesosestocasticos. La posicion de una partıcula en cada instante t ≥ 0 es un vectorvariable aleatorio 3-dimensional Bt.

En el caso unidimensional la definicion del movimiento browniano comoproceso estocastico es la siguiente:

Definicion 3 Un proceso estocastico Bt, t ≥ 0 es un movimiento browni-ano si se cumplen las condiciones siguientes:

i) B0 = 0

ii) Fijados n instantes 0 ≤ t1 < · · · < tn los incrementos Btn−Btn−1 , . . . , Bt2−Bt1, son variables aleatorias independientes

15

Page 16: Calculo estocastico

iii) Si s < t, el incremento Bt −Bs tiene una ley normal N(0, t− s)

iv) Las trayectorias del proceso son funciones continuas.

Observaciones

1) El movimiento browniano es un proceso gaussiano. En efecto, la ley unvector aleatorio (Bt1 , . . . , Btn) es normal ya que este vector es una trans-formacion lineal del vector

(Bt1 , Bt2 −Bt1 , . . . , Btn −Btn−1

)que tiene

ley normal ya que tiene las componentes independientes y normales.

2) La media y la autocovarianza del movimiento browniano se calculan facil-mente:

E(Bt) = 0

E(BsBt) = E(Bs(Bt −Bs + Bs))

= E(Bs(Bt −Bs)) + E(B2s ) = s = min(s, t)

si s ≤ t. Puede comprobarse facilmente que si un proceso gaussianotiene media cero y funcion de autocovarianza ΓX(s, t) = min(s, t), en-tonces cumple las condiciones i), ii) y iii) de la Definicion anterior.

3) Puede demostrarse que existe un proceso estocastico que cumple lascondiciones anteriores. Para ello, se parte de sus distribuciones endimension finita, que son leyes normales N(0, Γ) donde Γ es la la ma-triz

t1 t1 · · · t1t1 t2 · · · t2...

.... . .

...t1 t2 · · · tn

.

El teorema de extension de Kolmogorov permite construir un procesoestocastico fijadas las distribuciones en dimension finita, siempre quesean compatibles, lo que aquı es cierto. Finalmente hay que demostrarque se pueden modificar las variables Bt conjuntos de probabilidadcero de forma que las trayectorias sean continuas. Para ello se aplica elcriterio de continuidad de Kolmogorov. Como los incrementos Bt−Bs

tienen ley normal N(0, t− s), para todo numero entero k tendremos

E[(Bt −Bs)

2k]

=(2k)!

2kk!(t− s)k. (3)

16

Page 17: Calculo estocastico

Por lo tanto, elegiendo k = 2, ya podemos asegurar que existe unaversion continua, ya que

E[(Bt −Bs)

4] = 3(t− s)2.

4) En la definicion de movimiento bronwiano, se supone que el espacio deprobabilidad (Ω,F , P ) es arbitrario. Sin embargo, mediante la apli-cacion

Ω → C ([0,∞),R)

ω → B·(ω)

podemos suponer que el espacio de probabilidad es el conjunto delas funciones continuas C ([0,∞),R) con la σ-algebra de Borel (gen-erada por los conjuntos abiertos relativos a la estructura de espaciometrico separable y completo) y con una probabilidad igual a la ley delmovimiento browniano: P B−1. En tal caso las variables aleatoriasson las evaluaciones ω(t) y este espacio de probabilidad se denominaespacio canonico.

Regularidad de las trayectoriasQueremos aplicar la desigualdad (2) al movimiento browniano. Eligiendo

p = 2k y utilizando (3), tendremos α = k. Por lo tanto, para todo ε > 0existe una variable aleatoria Gε,T tal que

|Bt −Bs| ≤ Gε,T |t− s| 12−ε, (4)

para cada s, t ∈ [0, T ]. Es decir, las trayectorias del movimiento Brownianoson Holder continuas de orden 1

2− ε para todo ε > 0. Intuitivamente, esto

significa que

∆Bt = Bt+∆t −Bt w (∆t)12 .

En media esta aproximacion es exacta: E[(∆Bt)

2] = ∆t.

Variacion cuadratica del movimiento brownianoFijemos un intervalo de tiempo [0, t] y consideremos una subdivision π de

este intervalo0 = t0 < t1 < · · · < tn = t.

17

Page 18: Calculo estocastico

La norma de la subdivision π se define como |π| = maxk ∆tk, donde ∆tk =tk − tk−1 . Pongamos ∆Bk = Btk −Btk−1

. Entonces, si tj = jtn

tendremos

n∑

k=1

|∆Bk| w n

(t

n

) 12

−→∞,

mientras quen∑

k=1

(∆Bk)2 w n

t

n= t. (5)

Esas propiedades pueden formularse de manera rigurosa como sigue:En primer lugar, puede demostrarse que las sumas de los cuadrados de

los incrementos convergen en media cuadratica hacia la longitud del intervalode tiempo considerado:

E

(n∑

k=1

(∆Bk)2 − t

)2 = E

(n∑

k=1

[(∆Bk)

2 −∆tk])2

=n∑

k=1

E([

(∆Bk)2 −∆tk

]2)

=n∑

k=1

[4 (∆tk)

2 − 2 (∆tk)2 + (∆tk)

2]

= 3n∑

k=1

(∆tk)2 ≤ 3t|π| |π|→0−→ 0.

Por otra parte, la variacion total de las trayectorias del movimiento brow-niano, definida como

V = supπ

n∑

k=1

|∆Bk|

es infinita con probabilidad uno. En efecto, utilizando la continuidad de lastrayectorias del movimiento browniano, tendremos

n∑

k=1

(∆Bk)2 ≤ sup

k|∆Bk|

(n∑

k=1

|∆Bk|)≤ V sup

k|∆Bk| |π|→0−→ 0 (6)

si V < ∞, lo cual contradice que∑n

k=1 (∆Bk)2 converja en media cuadratica

hacia t cuando |π| → 0.

18

Page 19: Calculo estocastico

Propiedad de autosimilitudPara todo numero real a > 0, el proceso

a−1/2Bat, t ≥ 0

es un movimiento browniano. En efecto, este proceso es normal, con mediacero y funcion de autocovarianza igual a min(s, t).

Procesos relacionados con el movimiento browniano

1.- El puente browniano: Consideremos el proceso

Xt = Bt − tB1,

t ∈ [0, 1]. Se trata de un proceso normal centrado con funcion deautocovarianza

E(XtXs) = min(s, t)− st,

que verifica X0 = 0, X1 = 0.

2.- El movimiento browniano con deriva: Consideremos el proceso

Xt = σBt + µt,

t ≥ 0, donde σ > 0 y µ ∈ R son constantes. Se trata de un procesonormal con media y funcion de autocovarianza

E(Xt) = µt,

ΓX(s, t) = σ2 min(s, t)

3.- Movimiento browniano geometrico: Es el proceso estocastico propuestopor Black, Scholes y Merton como modelo para la curva de precios delos activos financieros. Su definicion es la siguiente

Xt = eσBt+µt,

t ≥ 0, donde σ > 0 y µ ∈ R son constantes. Es decir, se trata de laexponencial de un movimiento browniano con deriva lineal.

19

Page 20: Calculo estocastico

Simulacion del movimiento brownianoEl movimiento browniano puede considerarse como el lımite de los paseos

aleatorios. Fijemos un intervalo de tiempo [0, T ]. Consideremos n variablesaleatorias ξ1, . . . , ξn independientes, identicamente distribuidas, centradas yde varianza T

n. Formemos las sumas parciales

Rk = ξ1 + · · ·+ ξk, k = 1, . . . , n.

El Teorema Central del Lımite nos dice que cuando n tiende a infinito, lasucesion Rn converge en ley hacia la ley N(0, T ).

Consideremos ahora el proceso estocastico continuo Sn(t) construido porinterpolacion lineal a partir de los valores

Sn(kT

n) = Rk k = 0, . . . , n.

Es decir, colocamos las sumas parciales R1, R2, . . . en los instantes Tn, 2T

n, 3T

n, . . .

.Se verifica una version funcional del Teorema Central del Lımite, conocida

con el nombre de Principio de Invariancia de Donsker, que nos dice que lasucesion de procesos estocasticos Sn(t) convege en ley hacia el movimientobrowniano en [0, T ].

Tambien puede hacerse una simulacion de las trayectorias brownianasmediante series de Fourier con coeficientes aleatorios. La representacion dePaley-Wiener del movimiento browniano es

Bt = Z0t√2π

+2√π

∞∑n=1

Znsin(nt/2)

n, t ∈ [0, 2π],

donde las Zn, n = 0, 1, . . . son variables aleatorias independientes y conley N(0, 1). La serie converge uniformemente en [0, 2π], para cada ω, casiseguramente.

Para utilizar esta formula en la simulacion de las trayectorias brownianasdebemos elegir el numero M de funciones trigonometricas y el numero N depuntos de discretizacion de las funciones:

Z0tj√2π

+2√π

M∑n=1

Znsin(ntj/2)

n,

20

Page 21: Calculo estocastico

donde tj = 2πjN

, j = 0, 1, . . . , N .

1.4 Esperanza condicionada

La probabilidad condicionada de un suceso A por un suceso B (suponiendoP (B) > 0) se define como

P (A|B) = P (A∩B)P (B)

.

Vemos que A y B son independientes sı y solo si P (A|B) = P (A). Laprobabilidad condicionada P (A|B) representa la probabilidad del suceso Asuponiendo que sabemos que B ha ocurrido. La aplicacion

A 7−→ P (A|B)

define una nueva probabilidad en la σ-algebra F que se concentra en el con-junto B. Se puede calcular entonces la esperanza condicionada por B de unavariable aleatoria integrable X:

E(X|B) =1

P (B)E(X1B),

donde 1B representa la funcion indicatriz del suceso B definida por

1B(ω) =

1 si ω ∈ B0 si ω /∈ B

Un concepto mas complicado es el condicionamiento por una σ-algebrade sucesos. Consideremos una σ-algebra B ⊂ F y una variable aleatoriaintegrable X.

Una variable aleatoria Z se denomina la esperanza condicionada de lavariable X respecto de B, (escribiremos Z = E(X|B)), si cumple las dospropiedades siguientes:

• Z es medible respecto de B.

• Para todo suceso A ∈ B

E (Z1A) = E (X1A) .

21

Page 22: Calculo estocastico

Puede demostrarse que la esperanza condicionada existe y es unica casi se-guramente, de manera que si Z fuese otra variable con las mismas propiedades,entonces Z = Z, P -casi seguramente.

En el caso particular en que la σ-algebra B esta generada per una particionfinita B1, ..., Bm, entonces E(X|B) es una variable aleatoria elemental queen cada conjunto Bj toma el valor constante E(X|Bj), es decir,

E(X|B) =m∑

j=1

E(X1Bj

)

P (Bj)1Bj

.

Reglas para el calculo de esperanzas condicionadas:

Regla 1 La esperanza condicionada es lineal:

E(aX + bY |B) = aE(X|B) + bE(Y |B)

Regla 2 La variable y su esperanza condicionada tienen la misma esperanza:

E (E(X|B)) = E(X)

Esta propiedad es una consecuencia inmediata de la definicion, tomandoA = Ω.

Regla 3 Si la variable aleatoria X y la σ-algebra B son independientes,entonces E(X|B) = E(X).

En efecto, para todo suceso A ∈ B tendremos

E (X1A) = E (X)E(1A) = E(E(X)1A).

Regla 4 Si X es B-medible, entonces E(X|B) = X.

Regla 5 Si Z es una variable aleatoria acotada y B-medible, entonces

E(ZX|B) = ZE(X|B).

Es decir, las variables aleatorias B-medibles se comportan como con-stantes y pueden sacarse fuera de la esperanza condicionada.

Regla 6 Si C ⊂ B, entonces

E (E(X|B)|C) = E (E(X|C)|B) = E(X|C)

22

Page 23: Calculo estocastico

Regla 7 Consideremos dos variables aleatorias X y Z, tales que Z es B-medible y X es independiente de B. Consideremos una funcion h(x, z)tal que h(X, Z) es integrable. Entonces, se tiene

E (h(X, Z)|B) = E (h(X, z)) |z=Z

Es decir, primero calculamos la esperanza E (h(X, z)) para un valorarbitrario z de la variable Z y luego substituimos z por Z.

La esperanza condicionada tiene propiedades similares a la esperanza or-dinaria. Por ejempo se cumple la siguiente propiedad de monotonıa:

X ≤ Y ⇒ E(X|B) ≤ E(Y |B),

que implica la desigualdad |E(X|B) | ≤ E(|X| |B). Tambien se cumple ladesigualdad de Jensen: Si ϕ es una funcion convexa tal que E(|ϕ(X)|) < ∞,entonces

ϕ (E(X|B)) ≤ E(ϕ(X)|B). (7)

En particular, si tomamos ϕ(x) = |x|p con p ≥ 1, se obtiene

|E(X|B)|p ≤ E(|X|p|B),

por lo tanto, tomando esperanzas, deducimos que si E(|X|p) < ∞, entonces,E(|E(X|B)|p) < ∞, y

E(|E(X|B)|p) ≤ E(|X|p).Si la σ-algebra B esta generada por las variables aleatorias Y1, . . . , Ym,

entonces, la esperanza condicionada se representa por E(X|Y1, . . . , Ym) yes una cierta funcion g(Y1, . . . , Ym) de estas variables. En particular, si lasvariables X, Y1, . . . , Ym tienen una ley conjunta con densidad f(x, y1, . . . , ym),entonces, la esperanza condicionada se puede calcular como la esperanza dela densidad condicionada:

f(x|y1, . . . , ym) =f(x, y1, . . . , ym)∫ +∞

−∞ f(x, y1, . . . , ym)dy1 · · · dym

,

es decir,

E(X|Y1, . . . , Ym) =

∫ +∞

−∞xf(x|Y1, . . . , Ym)dx.

23

Page 24: Calculo estocastico

En el caso en que la σ-algebra B este generada por un conjunto infinitode variables aleatorias Yj, escribiremos tambien

E(X|B) = E(X| Yj),pero el calculo no se puede efectuar mediante una formula como la anteriory necesitaremos utilizar las reglas que hemos introducido antes.

Ejemplo 11 Consideremos un proceso de movimiento browniano Bt, t ≥0. Para cada instante t, definimos la σ-algebra Ft generada por las variablesaleatorias Bs, s ≤ t. La σ-algebra Ft contiene la historia del movimientobrowniano hasta el instante t. Esto quiere decir que:

i) Los sucesos F de Ft seran conocidos (se sabra si han ocurrido o no) en elinstante t.

ii) El valor de una variable aleatoria X(ω) medible respecto de la σ-algebraFt sera una funcion de la trayectoria del movimiento browniano

Bs(ω), s ∈ [0, t] .

Observemos que Fs ⊂ Ft si s ≤ t, es decir, la familia de σ-algebrasFt, t ≥ 0 es creciente. Diremos que Ft, t ≥ 0 es una filtracion en el es-pacio de probabilidad (Ω,F , P ).

Queremos calcular

E(Bt|Fs) = E(Bt|Br, r ≤ s).

• Si s ≥ t, la variable Bt es Fs-medible, y por la Regla 4 obtenemosE(Bt|Fs) = Bt.

• Si s < t, por la propiedad de linealidad (Regla 1):

E(Bt|Fs) = E(Bt −Bs + Bs|Fs)

= E(Bt −Bs |Fs) + E( Bs|Fs).

Como Bt −Bs es independiente de Fs, la Regla 3 nos da

E(Bt −Bs |Fs) = E(Bt −Bs ) = 0,

y, por lo tanto, obtenemos

E(Bt|Fs) = Bs. (8)

24

Page 25: Calculo estocastico

El conjunto de las variables aleatorias Z que son medibles respecto de unaσ-algebra B y que son de cuadrado integrable (E(Z2) < ∞), lo representare-mos por L2(Ω,B, P ). Puede demostrarse que L2(Ω,F , P ) es un espacio deHilbert con el producto escalar

〈Z, Y 〉 = E(ZY ),

y que L2(Ω,B, P ) es un subespacio cerrado de L2(Ω,F , P ).En este contexto, si X es una variable tal que E(X2) < ∞, la esperanza

condicionada E(X|B) es la variable del espacio L2(Ω,B, P ) mas proxima aX en media cuadratica:

E[(X − E(X|B))2] = min

Z∈L2(Ω,B,P )E

[(X − Z)2] . (9)

Es decir, E(X|B) es la proyeccion de X en el subespacio L2(Ω,B, P ).Desde el punto de vista de la teorıa de la estimacion, la esperanza condi-

cionada E(X|B) es el mejor predictor de la variable X a partir de la σ-algebraB (estimador optimo).

Demostracion de (9): Sea X una variable tal que E(X2) < ∞. Ladesigualdad de Jensen para la esperanza condicionada (7) implica que E(X|B)tambien es de cuadrado integrable ya que

E((E(X|B))2) ≤ E

(E(X2|B)

)= E(X2).

La regla 5 nos permite demostrar que la diferencia X − E(X|B) es ortogonal aL2(Ω,B, P ). En efecto, si Z es una variable de L2(Ω,B, P ) tendremos

E [(X − E(X|B))Z] = E(XZ)− E(E(X|B)Z)

= E(XZ)− E(E(XZ|B)) = 0.

Finalmente, esta ortogonalidad implica que

E[(X − Y )2] = E

[(X − E(X|B))2] + E

[(E(X|B)− Z)2] ,

de lo que se deduce (9). ¤

Ejercicios

25

Page 26: Calculo estocastico

1.1 Supongamos que Hi, i ∈ I es una familia de σ-algebras en un conjuntoΩ. Demostrar que

H = ∩Hi, i ∈ Ies tambien una σ-algebra.

1.2 Supongamos que X es una variable aleatoria real tal que

M = E[exp(k|X|)] < ∞para un cierto k > 0. Probar que P (|X| > λ) ≤ Me−kλ, para todoλ ≥ 0.

1.3 Sea (Ω,F , P ) un espacio de probabilidad y consideremos una sucesionde sucesos A1, A2, . . . tales que

∞∑

k=1

P (Ak) < ∞.

Demostrar el lema de Borel-Cantelli:

P (∩∞m=1 ∪∞k=m Ak) = 0,

es decir, la probabilidad que ocurran infinitos sucesos de la sucesion esnula.

1.4 Sea Z una variable aleatoria con ley N(0, σ2). A partir de la formula

E(eλZ) = e12λ2σ2

,

y desarrollando en serie de potencias la funcion exponencial deducirque para todo k ≥ 1

E(Z2k) =(2k)!

2kk!σ2k,

E(Z2k−1) = 0.

1.5 Sea Z una variable aleatoria con ley de Poisson de parametro λ. Com-probar que la funcion caracterıstica de Z vale

ϕZ(t) = exp[λ

(eit − 1

)].

Como aplicacion calcular E(Z2), Var(Z) y E(Z3).

26

Page 27: Calculo estocastico

1.6 Sea (Ω,F , P ) = ([0,∞),B[0,∞), µ), donde µ es una probabilidad en [0,∞)con funcion de distribucion continua. Consideremos en este espacio deprobabilidad los procesos estocasticos

Xt(ω) =

1 si t = ω0 si t 6= ω

Yt(ω) = 0.

Comprobar que estos procesos tienen las mismas distribuciones en di-mension finita, pero las trayectorias del proceso X son todas discontin-uas.

1.7 Sea Bt un movimiento browniano. Fijemos un instante t0 ≥ 0. De-mostrar que el proceso

Bt = Bt0+t −Bt0 , t ≥ 0

es tambien un movimiento browniano.

1.8 Sea Bt un movimiento browniano 2-dimensional. Calcular

P (|Bt| < ρ)

donde ρ > 0.

1.9 Sea Bt un movimiento browniano n-dimensional. Consideremos unamatriz U cuadrada de dimension n, ortogonal (es decir, UU ′ = I).Demostrar que el proceso

Bt = UBt

es tambien un movimiento browniano.

1.10 Calcular la media y la autocovarianza del movimiento browniano geometrico.Es un proceso gaussiano?

27

Page 28: Calculo estocastico

2 Integracion estocastica

Supongamos que Bt, t ≥ 0 es un movimiento browniano definido en un es-pacio de probabilidad (Ω,F , P ). Consideremos la familia creciente Ft, t ≥ 0de σ-algebras generadas por este proceso. Supondremos ademas que Ft con-tiene los conjuntos de probabilidad cero. Esto significa que Ft es la mınimaσ-algebra que contiene los conjuntos de la forma

Bs ∈ A ∪N

donde s ∈ [0, t], A pertenece a la σ-algebra de Borel BR, y N es un conjuntode probabilidad cero.

Diremos que un proceso estocastico ut, u ≥ 0 es adaptado (a la familiade σ-algebras Ft) si para cada t la variable aleatoria ut es Ft-medible.

La inclusion de los sucesos de probabilidad cero en cada σ-algebra Ft

tiene las siguientes consecuencias interesantes:

a) Toda version de un proceso adaptado es tambien adaptado.

b) La familia de σ-algebras es continua por la derecha, es decir, para todot ≥ 0

∩s>tFs = Ft.

Demostracion de b): Consideremos las σ-algebras F t = σBr − Bt, r ≥s. Si B ∈ ∩s>tFs, la σ-algebra generada por B y por Ft , es independiente deF t+ 1

n para todo n. Por tanto, σ(B,Ft) sera independiente de F t, y tendemos

E(1B|Ft) = E(1B|Ft ∨ F t) = 1B,

de lo que se deduce 1B ∈ Ft. ¤La σ-algebra F0 solo contiene conjuntos de probabilidad cero o uno. Esto

implica que las variables aleatorias F0-medibles seran constantes, casi segu-ramente.

Nuestro objetivo es la definicion de integrales estocasticas de la forma

∫ T

0utdBt .

Una posibilidad consiste en utilizar la definicion de integral de RiemannStieltjes:

28

Page 29: Calculo estocastico

Consideremos una particion del intervalo [0, T ]:

τn : 0 = t0 < t1 < · · · < tn−1 < tn = T

ası como una particion intermedia:

σn : ti ≤ sileqti+1 , i = 0, . . . , n− 1.

Dadas dos funciones f y g en el intervalo [0, T ], la integral de Riemann

Stieltjes∫ T

0fdg se define como el lımite

limn→∞

n∑i=1

f(si−1)∆gi

cuando supi(ti− ti−1)n→∞−→ 0, suponiendo que este lımite existe y es indepen-

diente de la sucesion de particiones τn y de sus particiones intermedias σn,con la notacion ∆gi = g(ti)− g(ti−1).

Se sabe que la integral de Riemann Stieltjes∫ T

0fdg existe si la funcion f

es continua y la funcion g tiene variacion total acotada, es decir:

supτ

∑i

|∆gi| < ∞.

Como las trayectorias del movimiento browniano tienen variacion totalinfinita (vease (6)) no podemos utilizar este criterio para asegurar que la

integral de Riemann-Stieltjes∫ T

0ut(ω)dBt(ω) existe para cada ω, si u es un

proceso arbitrario con trayectorias continuas.Obsevemos, si embargo, que si las trayectorias del proceso u son difer-

enciables con derivadas acotadas, entonces, la integral de Riemann Stielt-jes

∫ T

0ut(ω)dBt(ω) existe y puede calcularse mediante una integracion por

partes: ∫ T

0utdBt = uT BT −

∫ T

0u′tBtdt.

En este apartado presentaremos una construccion de la integral∫ T

0utdBt

mediante un procedimiento global de tipo probabilıstico. En primer lugardefiniremos la clase de procesos que integraremos:

Designaremos por L2a,T el conjunto de los procesos estocasticos

u = ut, t ∈ [0, T ]tales que:

29

Page 30: Calculo estocastico

a) Para cada t ∈ [0, T ], la aplicacion (s, ω) −→ us(ω) definida en [0, t] × Ωes medible respecto de la σ-algebra producto B[0,t] ×Ft.

b) E(∫ T

0u2

t dt)

< ∞.

Un proceso que verifica la condicion a) se dice que es progresivamentemedible. En general, que un proceso estocastico u sea medible significa que lafuncion de dos variables (s, ω) −→ us(ω) es medible en la σ-algebra productoB[0,T ]×F . La propiedad a) require la medibilidad de la restriccion del procesou a cada conjunto [0, t] × Ω. Esta propiedad implica que el proceso u seaadaptado, ya que si una funcion es medible en un espacio producto, al fijaruna coordenada resulta medible como funcion de la segunda coordenada. Porotra parte, la propiedad a) es esencial para garantizar que variables aleatoriasdel tipo

∫ t

0usds sean Ft-medibles.

La condicion b) significa que el momento de segundo orden es integrableen [0, T ], ya que, el teorema de Fubini nos permite escribir

E

(∫ T

0

u2t dt

)=

∫ T

0

E(u2

t

)dt.

La propiedad b) nos dice que el proceso u como funcion de las dos variables(t, ω) pertenece al espacio L2([0, T ]× Ω).

Definiremos la integral estocastica∫ T

0utdBt para procesos u de la clase

L2a,T como el lımite en L2(Ω) de la integral de procesos elementales. Por

definicion un proceso u de L2a,T es elemental si se puede expresar de la forma

ut =n∑

j=1

φj1(tj−1,tj ](t), (10)

donde 0 = t0 < t1 < · · · < tn = T y las φj son variables aleatorias decuadrado integrable Ftj−1

-medibles.Si u es un proceso elemental de la forma (10) se define la integral es-

tocastica de u respecto del movimiento browniano B como

∫ T

0

utdBt =n∑

j=1

φj

(Btj −Btj−1

). (11)

30

Page 31: Calculo estocastico

La integral estocastica definida en el espacio E de los procesos elementalestiene las siguiente propiedad de isometria:

E

[(∫ T

0utdBt

)2]

= E(∫ T

0u2

t dt)

(12)

Demostracion de la isometrıa: Pongamos ∆Bj = Btj−Btj−1. Entonces

E(φiφj∆Bi∆Bj

)=

0 si i 6= j

E(φ2

j

)(tj − tj−1) si i = j

ya que si i < j las variables aleatorias φiφj∆Bi y ∆Bj son independientes y sii = j las variables aleatorias φ2

i y (∆Bi)2 son independientes. Por lo tanto se

obtiene

E

(∫ T

0

utdBt

)2

=n∑

i,j=1

E(φiφj∆Bi∆Bj

)=

n∑i=1

E(φ2

i

)(ti − ti−1)

= E

(∫ T

0

u2t dt

).

¤La extension de la integral estocastica a todos los procesos de la clase

L2a,T se basa en el siguiente resultado de aproximacion:

Lema 4 Si u es un proceso de la clase L2a,T existe una sucesion de procesos

elementales u(n) tales que

limn→∞

E

(∫ T

0

∣∣∣ut − u(n)t

∣∣∣2

dt

)= 0. (13)

Demostracion: La demostracion de este resultado la haremos en dos etapas:

1. Supongamos que el proceso u es continuo en media cuadratica. En tal caso,podemos tomar la sucesion aproximadora

u(n)t =

n∑j=1

utj−11(tj−1,tj ](t),

31

Page 32: Calculo estocastico

siendo tj = jTn

. La continuidad en media cuadratica del proceso u nosgarantiza que

E

(∫ T

0

∣∣∣ut − u(n)t

∣∣∣2

dt

)=

∫ T

0

E

(∣∣∣ut − u(n)t

∣∣∣2)

dt

≤ T sup|t−s|≤T/n

E(|ut − us|2

)

converge hacia cero cuando n tiende a infinito.

2. Supongamos que u es un proceso arbitrario de la clase L2a,T . En tal caso,

existe una sucesion de procesos v(n), pertenecientes a la clase L2a,T , continuos

en media cuadratica y tales que

limn→∞

E

(∫ T

0

∣∣∣ut − v(n)t

∣∣∣2

dt

)= 0. (14)

En efecto, definimos

v(n)t = n

∫ t

t− 1n

usds = n

(∫ t

0

usds−∫ t

0

us− 1nds

),

con la convencion u(s) = 0 si s < 0. Estos procesos son continuos en mediacuadratica (tambien tienen trayectorias continuas), y pertenecen a la claseL2

a,T , debido a la propiedad a). Ademas se cumple (14) ya que para cada(t, ω) tenemos ∫ T

0

∣∣u(t, ω)− v(n)(t, ω)∣∣2 dt

n→∞−→ 0

(vease Ejercicio 2.1), y podemos aplicar de nuevo el teorema de convergenciadominada en el espacio producto [0, T ]× Ω ya que

∫ T

0

∣∣v(n)(t, ω)∣∣2 dt ≤

∫ T

0

|u(t, ω)|2 dt.

¤

Definicion 5 Si u es un proceso de la clase L2a,T , la integral estocastica se

define como el lımite en L2(Ω)∫ T

0

utdBt = limn→∞

∫ T

0

u(n)t dBt, (15)

donde u(n) es una sucesion de procesos elementales tales que cumplen (13).

32

Page 33: Calculo estocastico

Que el lımite (15) existe es debido a que la sucesion de variables aleato-

rias∫ T

0u

(n)t dBt es de Cauchy en el espacio L2(Ω), debido a la propiedad de

isometrıa (12):

E

[(∫ T

0

u(n)t dBt −

∫ T

0

u(m)t dBt

)2]

= E

(∫ T

0

(u

(n)t − u

(m)t

)2

dt

)

≤ 2E

(∫ T

0

(u

(n)t − ut

)2

dt

)

+2E

(∫ T

0

(ut − u

(m)t

)2

dt

)n,m→∞→ 0.

Tambien puede demostrarse que el lımite (15) no depende de la sucesion u(n)

siempre que esta sucesion cumpla (13).La integral estocastica tiene las siguientes propiedades importantes:

1.- Isometrıa:

E

[(∫ T

0

utdBt

)2]

= E

(∫ T

0

u2t dt

).

2.- Media cero:

E

[(∫ T

0

utdBt

)]= 0.

3.- Linealidad:∫ T

0

(aut + bvt) dBt = a

∫ T

0

utdBt + b

∫ T

0

vtdBt.

4.- Localidad: Se cumple∫ T

0utdBt = 0 casi seguramente, en el conjunto

G =∫ T

0u2

t dt = 0

.

La propiedad de localidad es una consecuencia de que en el conjunto Gla sucesion aproximadora

u(n,m,N)t =

n∑j=1

m

[∫ (j−1)Tn

(j−1)Tn

− 1m

usds

]1( (j−1)T

n, jT

n ](t)

se anula.

33

Page 34: Calculo estocastico

Ejemplo 12 ∫ T

0

BtdBt =1

2B2

T −1

2T.

Como el proceso Bt es continuo en media cuadratica podemos tomar comosucesion aproximadora

u(n)t =

n∑j=1

Btj−11(tj−1,tj ](t),

donde tj = jTn

, y tendremos

∫ T

0

BtdBt = limn→∞

n∑j=1

Btj−1

(Btj −Btj−1

)

=1

2lim

n→∞

(B2

tj−B2

tj−1

)− 1

2lim

n→∞

n∑j=1

(Btj −Btj−1

)2

=1

2B2

T −1

2T. (16)

Si xt es una funcion derivable, las reglas del calculo diferencial e integral nosdicen que ∫ T

0

xtdxt =

∫ T

0

xtx′tdt =

1

2

(x2

T − x20

).

Observemos que en el caso del movimiento browniano nos aparece un terminoadicional igual a −1

2T .

Ejemplo 13 Consideremos una funcion determinista g tal que∫ T

0g(s)2ds <

∞. En este caso, la integral estocastica∫ T

0gsdBs es una variable aleatoria

con ley normal

N(0,

∫ T

0

g(s)2ds).

34

Page 35: Calculo estocastico

2.1 Integrales estocasticas indefinidas

Consideremos un proceso u de la clase L2a,T . El proceso u1[0,t] tambien

pertenece a L2a,T , y por lo tanto, podemos definir su integral:

∫ t

0

usdBs :=

∫ T

0

us1[0,t](s)dBs.

De esta forma hemos construido un nuevo proceso estocastico

∫ t

0

usdBs, 0 ≤ t ≤ T

que es la integral indefinida del proceso u respecto de B. En este apartadoestudiaremos las propiedades de las integrales indefinidas. En primer lugar,debido a la linealidad de la integral estocastica, tenemos la propiedad deaditividad siguiente:

∫ b

a

usdBs +

∫ c

b

usdBs =

∫ c

a

usdBs,

si a ≤ b ≤ c.Si a < b y A es un suceso de la σ-algebra Fa entonces,

∫ b

a

1AusdBs = 1A

∫ b

a

usdBs.

En realidad la igualdad es cierta si en lugar de 1A tomamos cualquier variableacotada y Fa-medible.

Una propiedad importante de las integrales indefinidas es la propiedad demartingala.

Definicion 6 Un proceso estocastico Mt, t ≥ 0 diremos que es una martin-gala respecto de una familia creciente de σ-algebras Mt, t ≥ 0, contenidasen F , si se cumplen las propiedades siguientes:

(i) Mt es medible respecto de Mt, para todo t ≥ 0.

(ii) E(|Mt|) < ∞ para todo t ≥ 0.

(iii) E(Mt|Ms) = Ms, si s ≤ t.

35

Page 36: Calculo estocastico

La propiedad (iii) puede expresarse de forma equivalente como sigue

E(Mt −Ms|Ms) = 0

y ello significa que la esperanza condicionada de los incrementos de una mar-tingala es cero. Las martingalas se introduden para modelizar las gananciasde un jugador que juega una partida equitativa en un juego de azar. En he-cho de que la ganancia esperada tenga valor medio cero representa el caracterequitativo del juego.

De forma analoga se puede introducir el concepto de martingala para unproceso Mt, 0 ≤ t ≤ T respecto de una familia creciente de σ-algebrasMt, 0 ≤ t ≤ T . En tal caso, la propiedad de martingala nos dice que

Mt = E(MT |Mt).

Fijemonos en que la variable terminal MT determina la martingala ya quelas variables Mt se obtinenen tomando la esperanza condicionada de MT

respecto de la familia creciente de σ-algebras.Como consecuencia de la propiedad de martingala tendremos que la es-

peranza de una martingala es consante:

E(Mt) = E(M0).

Ejemplo 14 Si Bt es un movimiento browniano y Ft es la filtracion generadapor Bt, entonces, los procesos:

Bt

B2t − t

exp(aBt − a2t

2)

son martingalas. En efecto, la propiedad de martingala de Bt ya ha sidodemostrada en (8). Para B2

t − t, la propiedad de martingala se deduce delsiguiente calculo de esperanzas condicionadas, si s < t

E(B2t |Fs) = E((Bt −Bs + Bs)

2 |Fs)

= E((Bt −Bs )2 |Fs) + 2E((Bt −Bs ) Bs|Fs)

+E(B2s |Fs)

= E (Bt −Bs )2 + 2BsE((Bt −Bs ) |Fs) + B2s

= t− s + B2s .

36

Page 37: Calculo estocastico

Finalmente, para el proceso exp(aBt − a2t2

) tendremos

E(eaBt−a2t2 |Fs) = eaBsE(ea(Bt−Bs)−a2t

2 |Fs)

= eaBsE(ea(Bt−Bs)−a2t2 )

= eaBsea2(t−s)

2−a2t

2 = eaBs−a2s2 .

Las martingalas con trayectorias continuas cumplen la desigualdad fun-damental siguiente debida a Doob:

Desigualdad de Doob: Supongamos que Mt, 0 ≤ t ≤ T es una martin-gala con trayectorias continuas. Entonces, para todo p ≥ 1 y todo λ > 0 secumple

P

(sup

0≤t≤T|Mt| > λ

)≤ 1

λp E(|MT |p).

Obsevamos que se trata de una generalizacion de la desigualdad de Tcheby-chev. Como consecuencia de la desigualdad de Doob puede demostrarse quelas integrales estocasticas indefinidas tienen trayectorias continuas.

Proposicion 7 Supongamos que u es un proceso de la clase L2a,T . Entonces,

la integral estocastica∫ t

0usdBs tiene una version con trayectorias continuas.

Demostracion: Consideremos una sucesion de procesos elementales u(n) talque

limn→∞

E

(∫ T

0

∣∣∣ut − u(n)t

∣∣∣2

dt

)= 0.

Pongamos

I(t) =

∫ t

0

usdBs,

In(t) =

∫ t

0

u(n)s dBs.

El proceso In tiene trayectorias continuas y es una martingala respecto de la familiacreciente de σ-algebras Ft. En efecto, si s < t y φj es el valor del proceso

37

Page 38: Calculo estocastico

estocastico u(n) cada el intevalo (tj−1, tj] tendremos

E (In(t)− In(s)|Fs) = E

s≤tj−1≤tj≤t

φj∆Bj|Fs

=∑

s≤tj−1≤tj≤t

E(E

(φj∆Bj|Ftj−1

) |Fs

)

=∑

s≤tj−1≤tj≤t

E(φjE

(∆Bj|Ftj−1

) |Fs

)= 0.

Por consiguiente, la diferencia In − Im sera una martingala, y la desigualdad deDoob con p = 2 nos permite escribir

P

(sup

0≤t≤T|In(t)− Im(t)| > λ

)≤ 1

λ2E(|In(T )− Im(T )|2)

=1

λ2E

(∫ T

0

∣∣∣u(n)t − u

(m)t

∣∣∣2

dt

)n,m→∞−→ 0.

Podemos elegir una sucesion creciente de numeros naturales nk, k = 1, 2, . . . talque

P

(sup

0≤t≤T|Ink+1

(t)− Ink(t)| > 2−k

)≤ 2−k.

Los sucesos Ak :=sup0≤t≤T |Ink+1

(t)− Ink(t)| > 2−k

tienen probabilidades

que forman una serie convergence, es decir,

∞∑

k=1

P (Ak) < ∞.

El lema de Borel-Cantelli nos dice que la probabilidad de que ocurra un numeroinfinito de estos sucesos es cero. Por lo tanto, existe un suceso N de probabilidadcero tal que para todo ω /∈ N podemos encontrar un ındice k1(ω) tal que si k ≥k1(ω)

sup0≤t≤T

|Ink+1(t, ω)− Ink

(t, ω)| ≤ 2−k.

Por lo tanto, si ω /∈ N , la sucesion Ink(t, ω) es uniformemente convergente en

[0, T ] hacia una funcion continua Jt(ω). Por otra parte, sabemos que para cadat ∈ [0, T ], Ink

(t) converge en media cuadratica hacia∫ t

0usdBs. Por consiguiente,

38

Page 39: Calculo estocastico

Jt(ω) =∫ t

0usdBs casi seguramente, para todo t ∈ [0, T ], y ello nos dice que la

integral indefinida tiene una version con trayectorias continuas. ¤La integral indefinida Mt =

∫ t

0usdBs es una martingala respecto de la

familia de σ-algebras Ft y se cumple la desigualdad siguiente, para todoλ > 0,

P

(sup

0≤t≤T|Mt| > λ

)≤ 1

λ2E

(∫ T

0

u2t dt

). (17)

En efecto, la propiedad de martingala de∫ t

0usdBs de deduce de la propiedad

de martingala de las integrales indefinidas∫ t

0u

(n)s dBs que hemos obtenido en

la demostracion anterior. La desigualdad (17) se deduce de la desigualdadde Doob y de la propiedad de isometrıa de la integral estocastica.

La martingala Mt =∫ t

0usdBs tiene trayectorias continuas, pero son ir-

regulares como las del movimiento browniano. En particular, las trayectoriasde las integrales indefinidas tienen variacion cuadratica finita como nos dicela propiedad siguiente:

Proposicion 8 (Variacion cuadratica ) Sea u un proceso de la clase L2a,T .

Entonces,n∑

j=1

(∫ tj

tj−1

usdBs

)2

L1(Ω)−→∫ t

0

u2sds

cuando n tiende a infinito, donde tj = jtn.

Demostracion: Observemos en primer lugar que si el proceso u es elemen-tal, el resultado es una consecuencia de la propiedad de variacion cuadratica delmovimiento browniano. En efecto, en cada intervalo (a, b] donde u toma el valorconstante φ aparecera una contribucion del tipo

φ2∑

a≤tj−1≤tj≤b

(∆Bj)2 n→∞−→ φ2 (b− a) .

Supongamos que u es un proceso arbitrario de la clase L2a,T . Existe una sucesion

u(k) de procesos elementales tal que

limk→∞

E

(∫ T

0

∣∣∣ut − u(k)t

∣∣∣2

dt

)= 0.

39

Page 40: Calculo estocastico

Utilizando la notacion

Vn(u) =n∑

j=1

(∫ tj

tj−1

usdBs

)2

tendremos

E

(∣∣∣∣Vn(u)−∫ t

0

u2sds

∣∣∣∣)

≤ E(∣∣Vn(u)− Vn(u(k))

∣∣)

+E

(∣∣∣∣ Vn(u(k))−∫ t

0

(u(k)

s

)2ds

∣∣∣∣)

+E

(∣∣∣∣∫ t

0

(u(k)

s

)2ds−

∫ t

0

u2sds

∣∣∣∣)

.

El primer sumando puede acotarse como sigue, utilizando la desigualdad deSchwartz y la isometrıa de la integral estocastica:

E(∣∣Vn(u)− Vn(u(k))

∣∣)

= E

[n∑

j=1

(∫ tj

tj−1

(us + u(k)

s

)dBs

)(∫ tj

tj−1

(us − u(k)

s

)dBs

)]

≤ [E

(Vn(u + u(k))

)E

(Vn(u− u(k))

)]1/2

=

[E

(∫ t

0

(us + u(k)

s

)2ds

)E

(∫ t

0

(us − u(k)

s

)2ds

)]1/2

.

Observemos que la acotacion obtenida no depende de n y converge hacia cerocuando k tiende a infinito. Por tanto, fijado ε > 0 existe un k0 tal que

E

(∣∣∣∣Vn(u)−∫ t

0

u2sds

∣∣∣∣)≤ ε + E

(∣∣∣∣ Vn(u(k))−∫ t

0

(u(k)

s

)2ds

∣∣∣∣)

para todo k ≥ k0 y para todo n. Finalmente basta tomar el lımite n →∞. ¤

2.2 Tiempos de paro

Un tiempo de paro relativo a una familia creciente de σ-algebras Ft, t ≥ 0es una variable aleatoria

τ : Ω −→ [0,∞]

40

Page 41: Calculo estocastico

tal que para todo t ≥ 0, τ ≤ t ∈ Ft. Es decir, podemos decidir si nosparamos o no antes de un instante t a partir de la informacion contenida enFt.

Ejemplo 15 El tiempo de llegada de un proceso continuo y adaptado Xt, t ≥ 0a un nivel a definido como

τa := inft > 0 : Xt = a

es un tiempo de paro. En efecto,

τa ≤ t =

sup

0≤s≤tXs ≥ a

=

sup

0≤s≤t,s∈QXs ≥ a

∈ Ft.

Mas generalmente, el tiempo de llegada de un proceso n-dimensional con-tinuo y adaptado Xt, t ≥ 0 a un conjunto de Borel U de Rn es un tiempode paro siempre que la familia de σ-algebras Ft, t ≥ 0 sea continua por laderecha.

Podemos asociar a todo tiempo de paro τ la σ-algebra Fτ formada porlos conjuntos G tales que

G ∩ τ ≤ t ∈ Ft (18)

para todo t ≥ 0.Los tiempos de paro satisfacen las dos propiedades siguientes:

• Si Mt, t ∈ [0, T ] es una martingala continua y y τ es un tiempo deparo acotado por T , entonces

E(MT |Fτ ) = Mτ . (19)

• Si u es un proceso de la clase L2a,T y τ es un tiempo de paro acotado por

T , el proceso u1[0,τ ] tambien pertenece a L2a,T y se verifica la relacion

siguiente: ∫ T

0

ut1[0,τ ](t)dBt =

∫ τ

0

ut dBt. (20)

41

Page 42: Calculo estocastico

Demostracion de (20): La demostracion se hara en dos etapas:

1. Supongamos primero que el proceso u es de la forma ut = F1(a,b](t),donde 0 ≤ a < b ≤ T y F ∈ L2(Ω,Fa, P ). Los tiempos de paro

τn =∑2n

i=1 tin1Ain, donde tin = iT

2n , Ain =

(i−1)T

2n≤ τ < iT

2n

forman una

sucesion decreciente que converge hacia τ . Para cada n tendremos∫ τn

0

ut dBt = F (Bb∧τn −Ba∧τn)

∫ T

0

ut1[0,τn](t)dBt =2n∑i=1

1Ain

∫ T

0

1(a∧tin,b∧tin](t)FdBt

=2n∑i=1

1AinF (Bb∧tin

−Ba∧tin)

= F (Bb∧τn −Ba∧τn).

Tomando el lımite cuando n tiende a infinito se deduce la igualdad en elcaso de un proceso elemental.

2. En el caso general, basta con aproximar el proceso u por procesos elemen-tales. La convergencia del miembro de la derecha de (20) se deduce de ladesigualdad maximal de Doob. ¤

La siguiente aplicacion de los tiempos de parada permite el calculo de laley del instante de llegada del movimiento browniano a un cierto nivel.

Ejemplo 16 Sea Bt un movimiento browniano y Ft la filtracion generadapor Bt. Consideremos el tiempo de paro

τa = inft ≥ 0 : Bt = a,

donde a > 0. Consideremos la martingala Mt = eλBt−λ2t2 que cumple

E(Mt) = E(M0) = 1.

La propiedad (19) nos permite obtener

E(Mτa∧N) = 1,

42

Page 43: Calculo estocastico

para todo N ≥ 1. Observemos que

Mτa∧N = exp

(λBτa∧N − λ2 (τa ∧N)

2

)≤ eaλ.

Por otra parte,

limN→∞ Mτa∧N = Mτa si τa < ∞limN→∞ Mτa∧N = 0 si τa = ∞

y el teorema de convergencia dominada implica

E(1τa<∞Mτa

)= 1,

es decir

E

(1τa<∞ exp

(−λ2τa

2

))= e−λa.

Haciendo λ ↓ 0 obtenemos

P (τa < ∞ ) = 1,

y, por consiguiente

E

(exp

(−λ2τa

2

))= e−λa.

Con el cambio de variable λ2

2= α, tendremos

E ( exp (−ατa)) = e−√

2αa. (21)

A partir de esta expresion puede calcularse la densidad de probabildad de lavariable τa:

P (τa ≤ t ) =

∫ t

0

ae−a2/2s

√2πs3

ds.

Por otra parte, la esperanza de τa puede obtenerse calculando la derivada enα = 0 de la expresion (21):

E ( τa exp (−ατa)) =ae−

√2αa

√2α

,

y haciendo α ↓ 0 se obtiene E(τa) = +∞.

43

Page 44: Calculo estocastico

2.3 Extensiones de la integral estocastica

La integral estocastica de Ito∫ T

0usdBs puede definirse para clases de pro-

cesos mas amplias que L2a,T .

A) En primer lugar, podemos substituir la familia creciente de σ-algebrasFt por una familia mayor Ht tal que el movimiento browniano Bt sea unamartingala respecto de Ht. En efecto, en todas las demostraciones anterioressolo se ha utilizado la propiedad

E(Bt −Bs|Fs) = 0.

Como ejemplo de esta situacion, consideremos el caso en que F (n)t es

la familia creciente de σ-algebras generadas por un movimiento brownianon-dimensional Bt. Cada componente Bk(t) es una martingala respecto de

F (n)t , pero F (n)

t no es la familia de σ-algebras generada por Bk(t). De estaforma, con la extension indicada antes, se pueden definir integrales como

∫ T

0

B2(s)dB1(s),

∫ T

0

sin(B21(s) + B2

1(s))dB2(s).

B) La segunda extension consiste en substituir la propiedad E(∫ T

0u2

t dt)

<

∞ por la hipotesis mas debil siguiente:

b’) P(∫ T

0u2

t dt < ∞)

= 1.

La clase de procesos que cumplen las propiedades a) y b’) la designaremospor La,T . Extenderemos la integral estocastica a la clase La,T mediante unargumento de localizacion.

Consideremos un proceso estocastico u de La,T . Para cada n ≥ 1 defini-mos el tiempo de paro

τn = inf

t ≥ 0 :

∫ t

0

u2sds = n

, (22)

donde suponemos que τn = T si∫ T

0u2

sds < n. De esta forma tendremos unasucesion creciente de tiempos de paro tal que τn ↑ T . Ademas,

t < τn ⇐⇒∫ t

0

u2sds < n.

44

Page 45: Calculo estocastico

Los procesosu

(n)t = ut1[0,τn](t)

pertenecen a L2a,T ya que E

(∫ T

0

(u

(n)s

)2

ds

)≤ n. Para cada n ≤ m, en el

conjunto t ≤ τn se cumple

∫ t

0

u(n)s dBs =

∫ t

0

u(m)s dBs

ya que las trayectorias en el intervalo [0, t] de los procesos u(n) y u(m) coincidenen este conjunto. Por consiguiente, existira un proceso continuo y adaptadoque denotaremos por

∫ t

0usdBs tal que

∫ t

0

u(n)s dBs =

∫ t

0

usdBs

si t ≤ τn.La integral estocastica de procesos de la clase La,T satisface las propiedades

de linealidad y continuidad de trayectorias de la integral indefinida. En cam-bio, la integral de procesos de la clase La,T puede no tener esperanza nivarianza finitas.

Proposicion 9 Consideremos un proceso u ∈ La,T . Para todo K, δ > 0 secumple la desigualdad siguiente:

P

(∣∣∣∣∫ T

0

usdBs

∣∣∣∣ ≥ K

)≤ P

(∫ T

0

u2sds ≥ δ

)+

δ

K2.

Demostracion: Consideremos el tiempos de paro definido por

τn = inf

t ≥ 0 :

∫ t

0

u2sds = δ

,

con la convencion τn = T si∫ T

0u2

sds < δ.Tendemos

P

(∣∣∣∣∫ T

0

usdBs

∣∣∣∣ ≥ K

)≤ P

(∫ T

0

u2sds ≥ δ

)

+P

(∣∣∣∣∫ T

0

usdBs

∣∣∣∣ ≥ K,

∫ T

0

u2sds < δ

),

45

Page 46: Calculo estocastico

por otra parte

P

(∣∣∣∣∫ T

0

usdBs

∣∣∣∣ ≥ K,

∫ T

0

u2sds < δ

)= P

(∣∣∣∣∫ T

0

usdBs

∣∣∣∣ ≥ K, τ = T

)

= P

(∣∣∣∣∫ τ

0

usdBs

∣∣∣∣ ≥ K, τ = T

)

≤ 1

K2E

(∣∣∣∣∫ τ

0

usdBs

∣∣∣∣2)

=1

K2E

(∫ τ

0

u2sds

)≤ δ

K2.

¤Como consecuencia de la proposicion anterior, si u(n) es una sucesion

de procesos de la clase La,T que converge hacia un proceso u ∈ La,T enprobabilidad: ∫ T

0

(u(n)

s − us

)2ds

P→ 0

entonces, ∫ T

0

u(n)s dBs

P→∫ T

0

usdBs.

2.4 Formula de Ito

La formula de Ito es la version estocastica de la clasica regla de la cadena enel calculo diferencial ordinario.

Consideremos el ejemplo∫ t

0

BsdBs =1

2B2

t −1

2t,

que podemos escribir en la forma

B2t =

∫ t

0

2BsdBs + t.

Podemos comprobar que la igualdad es cierta tomando esperanzas y uti-lizando la propiedad de media nula de la integral estocastica: E(B2

t ) = t. Ennotacion diferencial podemos escribir

dB2t = 2BtdBt + dt.

46

Page 47: Calculo estocastico

Vemos que el proceso estocastico B2t es la suma de una integral estocastica

y de una funcion diferenciable. Mas generalmente cualquier funcion f(Bt),donde f es dos veces continuamente diferenciable, puede expresarse comouna suma de una integral estocastica y de un proceso con trayectorias difer-enciables. Esto nos lleva a introducir la nocion de proceso de Ito que serauna suma de una integral estocastica mas una integral ordinaria. La clasede los procesos de Ito sera invariante por transformaciones funcionales reg-ulares. Designaremos por L1

a,T la clase de los procesos v que satisfacen laspropiedades a) y

b”) P(∫ T

0|vt| dt < ∞

)= 1.

Definicion 10 Un proceso de Ito Xt sera un proceso estocastico de la forma

Xt = X0 +

∫ t

0

usdBs +

∫ t

0

vsds, (23)

donde u pertenece a la clase La,T y v pertenece a la clase L1a,T .

En notacion diferencial escribiremos

dXt = utdBt + vtdt.

Teorema 11 (Formula de Ito) Supongamos que X es un proceso de Itode la forma (23). Sea f(t, x) una funcion dos veces derivable respecto de lavariable x y una vez respecto de la variable t, con todas las derivadas parcialescontinuas (diremos que f es de clase C1,2). Entonces el proceso Yt = f(t,Xt)es tambien un proceso de Ito con la representacion

Yt = f(0, X0) +

∫ t

0

∂f

∂t(s,Xs)ds +

∫ t

0

∂f

∂x(s,Xs)usdBs

+

∫ t

0

∂f

∂x(s,Xs)vsds +

1

2

∫ t

0

∂2f

∂x2(s,Xs)u

2sds.

1.- En notacion diferencial la formula de Ito puede escribirse de la forma

df(t,Xt) =∂f

∂t(t,Xt)dt +

∂f

∂x(t,Xt)dXt +

1

2

∂2f

∂x2(s,Xs) (dXt)

2 ,

donde (dXt)2 se calcula mediante la convencion

× dBt dtdBt dt 0dt 0 0

47

Page 48: Calculo estocastico

2.- El proceso Yt es un proceso de Ito con la representacion

Yt = Y0 +

∫ t

0

usdBs +

∫ t

0

vsds,

donde

Y0 = f(0, X0),

ut =∂f

∂x(t, Xt)ut,

vt =∂f

∂t(t, Xt) +

∂f

∂x(t,Xt)vt +

1

2

∂2f

∂x2(t,Xt)u

2t .

3.- En el caso particular ut = 1, vt = 0, X0 = 0, el proceso Xt es pre-cisamente el movimiento browniano Bt, y la formula de Ito adopta laexpresion mas simple siguiente

f(t, Bt) = f(0, 0) +

∫ t

0

∂f

∂x(s,Bs)dBs +

∫ t

0

∂f

∂t(s,Bs)ds

+1

2

∫ t

0

∂2f

∂x2(s,Bs)ds.

4.- En el caso particular en que la funcion f no depende del tiempo se obtienela formula

f(Xt) = f(0) +

∫ t

0

f ′(Xs)usdBs +

∫ t

0

f ′(Xs)vsds +1

2

∫ t

0

f ′′(Xs)u2sds.

La formula de Ito se deduce del desarrollo de Taylor hasta el orden dos.Indicaremos seguidamente, de forma heurıstica, las ideas principales que con-ducen a la formula de Ito. Supongamos v = 0. Fijemos un instante de tiempot > 0.

Consideremos los instantes tj = jtn

. La formula de Taylor hasta el segundoorden nos da

f(Xt)− f(0) =n∑

j=1

[f(Xtj)− f(Xtj−1

)]

=n∑

j=

f ′(Xtj−1)∆Xj +

1

2

n∑j=1

f ′′(Xj) (∆Xj)2 , (24)

48

Page 49: Calculo estocastico

donde ∆Xj = Xtj −Xtj−1y Xj es un valor comprendido entre Xtj−1

y Xtj .El primer sumando de la expresion anterior converge en probabilidad

hacia∫ t

0f ′(Xs)usdBs, mientras que el segundo sumando converge en proba-

bilidad hacia 12

∫ t

0f ′′(Xs)u

2sds.

Veamos algunos ejemplos de aplicacion de la fomula de Ito.

Ejemplo 17 Si f(x) = x2 y Xt = Bt, tendremos

B2t = 2

∫ t

0

BsdBs + t,

ya que f ′(x) = 2x y f ′′(x) = 2.

Ejemplo 18 Si f(x) = x3 y Xt = Bt, tendremos

B3t = 3

∫ t

0

B2sdBs + 3

∫ t

0

Bsds,

ya que f ′(x) = 3x2 y f ′′(x) = 6x. Mas generalmente, si n ≥ 2 es un numeronatural,

Bnt = n

∫ t

0

Bn−1s dBs +

n(n− 1)

2

∫ t

0

Bn−2s ds.

Ejemplo 19 Si f(t, x) = eax−a2

2t , Xt = Bt, y Yt = eaBt−a2

2t, tendremos

Yt = 1 + a

∫ t

0

YsdBs

ya que∂f

∂t+

1

2

∂2f

∂x2= 0. (25)

Este importante ejemplo nos permite deducir las observaciones siguientes:

1.- Si una funcion f(t, x) satisface la igualdad (25), entonces, el procesoestocastico f(t, Bt) sera una integral estocastica indefinida (mas un

49

Page 50: Calculo estocastico

termino constante), y por lo tanto, sera una martingala, suponiendoque f satisface la propiedad:

E

[∫ t

0

(∂f

∂x(s,Bs)

)2

ds

]< ∞

2.- La solucion de la ecuacion diferencial estocastica

dYt = aYtdBt

no es Yt = eaBt , como en el caso del calculo diferencial ordinario, sino

Yt = eaBt−a2

2t.

Como consecuencia de la formula de Ito, podemos deducir la siguienteformula de integracion por partes :

Supongamos que f(t) es una funcion continuamente diferenciable en [0, T ].En tal caso tendremos

∫ t

0

fsdBs = f(t)Bt −∫ t

0

Bsf′sds.

En efecto, aplicando la formula de Ito a la funcion f(t)x se obtiene

f(t)Bt =

∫ t

0

fsdBs +

∫ t

0

Bsf′sds.

Veamos seguidamente la version multidimensional de la formula de Ito.Supongamos que Bt = (B1

t , B2t , . . . , B

mt ) es un movimiento browniano m-

dimensional, es decir, las componentes son movimientos brownianos inde-pendientes. Consideremos un proceso de Ito n-dimensional de la forma

X1t = X1

0 +∫ t

0u11

s dB1s + · · ·+ ∫ t

0u1m

s dBms +

∫ t

0v1

sds...

Xnt = Xn

0 +∫ t

0un1

s dB1s + · · ·+ ∫ t

0unm

s dBms +

∫ t

0vn

s ds

.

En notacion diferencial y vectorial podemos escribir

dXt = utdBt + vtdt,

50

Page 51: Calculo estocastico

donde Xt, vt, son procesos n-dimensionales, y ut es un proceso con valoresen el conjunto de las matrices n×m. Supondremos que las componentes deu pertenecen a La,T y las de v pertenecen a L1

a,T .Entonces, si f : [0,∞)×Rn → Rp es una funcion de clase C1,2, el proceso

Yt = f(t,Xt) es tambien un proceso de Ito con la representacion (en notaciondiferencial)

dY kt =

∂fk

∂t(t,Xt)dt +

n∑i=1

∂fk

∂xi

(t,Xt)dX it

+1

2

n∑i,j=1

∂2fk

∂xi∂xj

(t, Xt)dX itdXj

t .

El producto de los diferenciales dX itdXj

t se calcula aplicando las reglas sigu-ientes:

dBitdBj

t =

0 si i 6= jdt si i = j

dBitdt = 0

(dt)2 = 0.

De esta forma se obtiene

dX itdXj

t =

(m∑

k=1

uikt ujk

t

)dt = (utu

′t)ij dt.

2.5 Integrales estocasticas de Stratonovich

En las sumas de Riemann-Stieltjes que elegimos para definir la integral es-tocastica

∫ t

0usdBs de un proceso continuo u, se toman siempre los valores

del proceso u en el punto tj−1 de cada intervalo [tj−1, tj] . De esta forma laintegral estocastica tiene media cero y su varianza puede calcularse a partirde la propiedad de isometrıa. Tambien, la integral indefinida es una mar-tingala. El inconveniente de esta eleccion consiste en que en la regla de lacadena nos aparece un termino correctivo.

La integral de Stratonovich∫ T

0us dBs se define como el lımite en prob-

abilidad de la sucesionn∑

i=1

1

2(uti−1

+ uti)∆Bi,

51

Page 52: Calculo estocastico

suponiendo ti = iTn

. Supongamos que el proceso u es un proceso de Ito de laforma

ut = u0 +

∫ t

0

αsdBs +

∫ t

0

βsds. (26)

Utilizando la descomposicion

1

2(uti−1

+ uti)(Bti −Bti−1) = uti−1

(Bti −Bti−1)

+1

2(uti − uti−1

)(Bti −Bti−1),

se obtiene la siguiente formula que relaciona las integrales de Ito y de Stratonovich:∫ T

0

us dBs =

∫ t

0

usdBs +1

2

∫ t

0

αsds. (27)

En efecto, las sumas de Riemann-Stieltjes

n∑i=1

(uti − uti−1)(Bti −Bti−1

)

convergen hacia la integral∫ t

0

dusdBs =

∫ t

0

αs (dBs)2 +

∫ t

0

βs dsdBs =

∫ t

0

αsds.

Puede comprobarse que la integral estocastica de Stratonovich sigue lasreglas del calculo diferencial ordinario. Es decir, si u es un proceso de laforma (26) y

Xt = X0 +

∫ t

0

us dBs +

∫ t

0

vsds

= X0 +

∫ t

0

usdBs +

∫ t

0

(vs +

1

2αs

)ds,

entonces,

df(Xt) = f ′(Xt)dXt +1

2f ′′(Xt)(dXt)

2

= f ′(Xt)utdBt + f ′(Xt)

(vt +

1

2αt

)dt

+1

2f ′′(Xt)u

2t dt. (28)

52

Page 53: Calculo estocastico

Por otra parte,

f ′(Xt)utdBt = f ′(Xt)ut dBt − 1

2d [f ′(Xt)ut] dBt.

En el calculo de d [f ′(Xt)ut] dBt hemos de tener en cuenta solo los diferen-ciales estocasticos de d [f ′(Xt)ut] que son

f ′(Xt)αtdBt + f ′′(Xt)u2t dBt.

Por consiguiente, se obtiene

f ′(Xt)utdBt = f ′(Xt)ut dBt − 1

2

(f ′(Xt)αt + f ′′(Xt)u

2t

)dt

y substituyendo esta expresion en (28) obtenemos

df(Xt) = f ′(Xt)ut dBt + f ′(Xt)vtdt

= f ′(Xt) dXt.

2.6 Tiempo local

Consideremos la funcion siguiente para cada ε > 0

gε(x) =

|x| si |x| ≥ ε12

(ε + x2

ε

)si |x| < ε

.

La derivada de esta funcion vale

g′ε(x) =

sign(x) si |x| ≥ ε

si |x| < ε.

La segunda derivada existe excepto si x = ∓ε y vale

g′′ε (x) =

0 si |x| ≥ ε1ε

si |x| < ε.

Siempre que una funcion sea de clase C2 excepto en un numero finito depuntos y la segunda derivada este acotada se verifica todavıa la formula deIto. Por ello, tendremos

gε(Bt) =ε

2+

∫ t

0

g′ε(Bs)dBs +1

∫ t

0

1(−ε,ε)(Bs)ds.

53

Page 54: Calculo estocastico

Cuando ε tiende a cero, gε(Bt) converge en media cuadratica hacia |Bt|. Porotra parte, g′ε(Bs) converge en L2([0, t]× Ω) hacia sign(Bs). En efecto,

E

∫ t

0

|sign(Bs)− g′ε(Bs)|2 ds

≤ 2E

(∫ t

0

[(sign(Bs))

2 +B2

s

ε2

]1(−ε,ε)(Bs)ds

)

≤ 4E

(∫ t

0

1(−ε,ε)(Bs)ds

)

= 4

∫ t

0

P (|Bs| < ε)dsε↓0−→ 4

∫ t

0

P (|Bs| = 0)ds = 0.

Denotaremos por Lt(0) el lımite en media cuadratica de

1

∫ t

0

1(−ε,ε)(Bs)ds =1

2ε|s ∈ [0, t] : |Bs| < ε|.

De esta forma obtenemos la formula de Ito para el valor absoluto del movimientobrowniano, conocida como formula de Tanaka:

|Bt| =∫ t

0

sign(Bs)dBs + Lt(0).

Observaciones:

• Mas generalmente, para todo x se tiene

|Bt − x| =∫ t

0

sign(Bs − x)dBs + Lt(x).

• El proceso Lt(x), t ≥ 0, x ∈ R se denomina el tiempo local del movimientobrowniano. Para cada t ≥ 0, Lt(x) es la densidad de la medida de ocu-pacion, es decir,

∫ b

a

Lt(x)dx =

∫ t

0

1[a,b](Bs)ds.

Puede demostrarse que existe una version del tiempo local que es con-tinua en las dos variables (t, x).

54

Page 55: Calculo estocastico

• En el caso de una funcion diferenciable b(t), se tiene

d|b(t)| = sign(b(s))b′(s)ds,

y la densidad de la medida de ocupacion en [0, t] vale

Lt(x) =∑

s∈[0,t]:b(s)=x

1

b′(s).

2.7 Representacion integral de martingalas

Consideremos un proceso u de la clase L2a,T . Sabemos que la integral in-

definida

Xt =

∫ t

0

usdBs

es una martingala respecto de la filtracion Ft. En este apartado demostraremosque todas las martingalas de cuadrado integrable respecto de esta filtracionson de este tipo.

Veamos un resultado preliminar.

Lema 12 El conjunto de variables que son combinaciones lineales de expo-nenciales de la forma

exp

(∫ T

0

hsdBs − 1

2

∫ T

0

h2sds

), (29)

donde h es una funcion determinista tal que∫ T

0h2

sds < ∞, es denso enL2(Ω,FT , P ).

Demostracion: Sea Y una variable de L2(Ω,FT , P ) ortogonal a todas lasexponenciales de la forma (29). Queremos demostrar que Y = 0. Fijados minstantes 0 ≤ t1 < · · · tm ≤ T y m numeros reales λ1, . . . , λm sabemos que

E(Y eλ1Bt1+···+λmBtm

)= 0.

Esto implica que la medida

ν(A) = E (Y 1A(Bt1 , . . . , Btm))

55

Page 56: Calculo estocastico

tiene una transformada de Laplace identicamente nula. Por lo tanto,

E(Y 1G) = 0

para todo suceso G de la σ-algebra generada por las variables Bt1 , . . . , Btm . Porun argumento de clases monotonas, esto sera cierto para todo G de la σ-algebraFT , y por lo tanto, Y = 0. ¤

Teorema 13 (Teorema de representacion de Ito) Consideremos una vari-able aleatoria F de L2(Ω,FT , P ). Entonces existe un unico proceso es-tocastico u de la clase L2

a,T tal que

F = E(F ) +

∫ T

0

usdBs.

Demostracion: Supongamos primero que la variable F es de la forma

exp

(∫ T

0

hsdBs − 1

2

∫ T

0

h2sds

),

donde h es una funcion determinista tal que∫ T

0h2

sds < ∞. Definimos

Yt = exp

(∫ t

0

hsdBs − 1

2

∫ t

0

h2sds

).

Por la formula de Ito aplicada a la funcion f(x) = ex y al proceso Xt =∫ t

0hsdBs−

12

∫ t

0h2

sds, obtenemos

dYt = Yt

(h(t)dBt − 1

2h2(t)dt

)+

1

2Yt(h(t)dBt)

2

= Yth(t)dBt,

es decir,

Yt = 1 +

∫ t

0

Ysh(s)dBs.

Por lo tanto,

F = YT = 1 +

∫ T

0

Ysh(s)dBs

56

Page 57: Calculo estocastico

y se cumple la representacion buscada porque E(F ) = 1,

E

(∫ T

0

Y 2s h2(s)ds

)=

∫ T

0

E(Y 2

s

)h2(s)ds

≤ exp

(∫ T

0

h2sds

) ∫ T

0

h2sds < ∞

ya que

E(Y 2

t

)= E

[exp

(2

∫ t

0

hsdBs −∫ t

0

h2sds

)]

= exp

(∫ t

0

h2sds

).

Por linealidad, la representacion se cumplira en el caso en que F sea una com-binacion lineal de exponenciales del tipo (29). En el caso general, el Lema 12 nospermite aproximar una variable arbitraria F de L2(Ω,FT , P ) por una sucesion Fn

de combinaciones lineales de exponenciales de la forma (29). Tendremos, entonces,

Fn = E(Fn) +

∫ T

0

u(n)s dBs.

Por la propiedad de isometrıa de la integral estocastica

E[(Fn − Fm)2] = E

[(E(Fn − Fm) +

∫ T

0

(u(n)

s − u(m)s

)dBs

)2]

= (E(Fn − Fm))2 + E

[(∫ T

0

(u(n)

s − u(m)s

)dBs

)2]

≥ E

[∫ T

0

(u(n)

s − u(m)s

)2ds

].

La sucesion Fn es de Cauchy en L2(Ω,FT , P ). Por lo tanto,

E[(Fn − Fm)2] n,m→∞−→ 0

y, en consecuencia,

E

[∫ T

0

(u(n)

s − u(m)s

)2ds

]n,m→∞−→ 0.

57

Page 58: Calculo estocastico

Esto nos dice que la sucesion u(n) es de Cauchy en L2([0, T ]× Ω). Por lo tantosera convergente hacia un proceso u de L2([0, T ] × Ω). Por otra parte, puedecomprobarse que u pertenece a la clase L2

a,T , teniendo en cuenta que una sucesionparcial de u(n)(t, ω) converge casi por todo (t, ω) hacia u(t, ω). Aplicando denuevo la propiedad de isometrıa, y teniendo en cuenta que E(Fn) converge haciaE(F ), se obtiene

F = limn→∞

Fn = limn→∞

(E(Fn) +

∫ T

0

u(n)s dBs

)

= E(F ) +

∫ T

0

usdBs.

Finalmente, la unicidad sale tambien de la propiedad de isometrıa: Supong-amos que u(1) y u(2) fuesen dos procesos de L2

a,T tales que

F = E(F ) +

∫ T

0

u(1)s dBs = E(F ) +

∫ T

0

u(2)s dBs.

Entonces

0 = E

[(∫ T

0

(u(1)

s − u(2)s

)dBs

)2]

= E

[∫ T

0

(u(1)

s − u(2)s

)2ds

]

y, por lo tanto, u(1)s (t, ω) = u

(2)s (t, ω) casi por todo (t, ω). ¤

Teorema 14 (Teorema de representacion de martingalas) Supongamosque Mt, t ∈ [0, T ] es una martingala respecto de la filtracion Ft, tal queE(M2

T ) < ∞ . Entonces existe un unico proceso estocastico u de la claseL2a,T

tal que

Mt = E(M0) +

∫ t

0

usdBs

para todo t ∈ [0, T ].

Demostracion: Aplicando el teorema de representacion de Ito a F = MT

obtenemos que existe un unico proceso u ∈ L2T tal que

MT = E(MT ) +

∫ T

0

usdBs = E(M0) +

∫ T

0

usdBs.

58

Page 59: Calculo estocastico

Supongamos que 0 ≤ t ≤ T . Tendremos

Mt = E[MT |Ft] = E(M0) + E[

∫ T

0

usdBs|Ft]

= E(M0) +

∫ t

0

usdBs.

¤

2.8 Teorema de Girsanov

El teorema de Girsanov nos dice que el movimiento browniano con derivaBt + λt puede verse como un movimiento browniano sin deriva, cambiandola probabilidad. Analizaremos primero como funcionan los cambios de prob-abilidad mediante densidades.

Si en un espacio de probabilidad (Ω,F , P ) consideramos una variablealeatoria L ≥ 0 de esperanza uno, entonces,

Q(A) = E (1AL)

define una nueva probabilidad. Que la esperanza de L sea igual a 1 nosgarantiza que

Q(Ω) = E(L) = 1.

Se dice que L es la densidad de Q respecto de P y se escribe formalmente

dQ

dP= L.

La esperanza de una variable aleatoria X en el espacio de probabilidad(Ω,F , Q) se calcula de la forma siguiente

EQ(X) = E(XL).

La probabilidad Q es absolutamente continua respecto de P , lo que significaque

P (A) = 0 =⇒ Q(A) = 0.

59

Page 60: Calculo estocastico

Si la variable L es estrictamente positiva, entonces las probabilidades P yQ son equivalentes (o sea, mutuamente absolutamente continuas), lo quesignifica

P (A) = 0 ⇐⇒ Q(A) = 0.

Veamos seguidamente un ejemplo simple de cambio de probabilidades querepresenta una version sencilla del teorema de Girsanov:

Ejemplo 20 Sea X una variable aleatoria con ley normal N(m,σ2). Existeuna probabilidad Q respecto de la cual la variable X tenga ley N(0, σ2)?

Consideremos la variable

L = e−mσ2 X+ m2

2σ2 .

Es facil comprobar que tiene esperanza uno E(L) = 1. Por otra parte, enel espacio de probabilidad (Ω,F , Q) la variable X tiene por funcion carac-terıstica:

EQ(eitX) = E(eitXL) =1√

2πσ2

∫ ∞

−∞e−

(x−m)2

2σ2 −mxσ2 + m2

2σ2 +itxdx

=1√

2πσ2

∫ ∞

−∞e−

x2

2σ2 +itxdx = e−σ2t2

2 ,

es decir, X tiene una ley N(0, σ2).

Veremos que en el caso del movimiento browniano se obtiene un resultadosimilar. Teniendo en cuenta que el movimiento browniano es el lımite depaseos aleatorios, analizaremos primero el problema de la eliminacion de laderiva en un paseo aleatorio:

Consideremos una succesion Xn, n ≥ 1 de variables aleatorias indepen-dientes tales que

Xn =

+1, con probabilidad 1/2−1, con probabilidad 1/2

.

Pongamos S0 = 0, y Sn = X1 + · · ·+ Xn + na, donde a > 0. La succesion Sn

representa un paseo aleatorio con deriva igual a a, y no es una martingala yaque

E(Sn|Fn−1) = Sn−1 + a,

60

Page 61: Calculo estocastico

donde Fn es la σ-algebra generada por X1, ..., Xn si n ≥ 1, y F0 = ∅, Ω.Podemos cambiar la asignacion de probabilidades de manera que Sn sea unamartingala. Si suponemos que

P (Xn = +1) = p,

P (Xn = −1) = 1− p,

necesitaremos que E(a + Xn) = 0, es decir,

p =1− a

2,

suponiendo que a < 1.Multipliquemos los valores de la constante a por ∆t y los valores de las

variables Xn por σ√

∆t. O sea supondremos que

S0 = 0,

∆Sn = a∆t + σXn,

P (Xn = ±√

∆t) =1

2.

En tal caso el valor de la probabilidad p respecto de la cual las Sn formanuna martingala es

P (Xn =√

∆t) = p =1

2− a

√∆t,

P (Xn = −√

∆t) = 1− p =1

2+

a

√∆t.

Podemos escribir

P (Xn = ±√

∆t) =1

2

(1− a

σXn

).

Si consideramos un camino de longitud N formado por los sucesivos valoresque toman las variables Xn, la probabilidad P de este camino seria 2−N ,mientras que la probabilidad Q seria 2−N

∏Nn=1

(1− a

σXn

). Es decir, pode-

mos escribirQ(camino)

P (camino)=

N∏n=1

(1− a

σXn

).

61

Page 62: Calculo estocastico

Observamos que la probabilidad Q esta bien definida si

∆t <(σ

a

)2

,

lo cual es cierto siempre que ∆t sea suficientement pequeno.Supongamos ahora que las variables aleatorias Sn se observan en instantes

que distan ∆t. Si ∆t tiende a cero y N tiende a infinito de manera queN∆t = t, entonces, Sn converge hacia un movimiento browniano con derivaat + σBt.

Por otra parte, el cociente entre las probabilidades Q y P converge haciaun termino exponencial:

Q(camino)

P (camino)=

N∏n=1

(1− a

σXn

)

= exp

(N∑

n=1

log(1− a

σXn

))

w exp

(N∑

n=1

(−a

σXn − a2

2σ2X2

n

))

= exp

(−a

σ

N∑n=1

Xn − a2

2σ2t

).

Es decir, en el lımite se obtiene

Q(camino)

P (camino)= exp

(−a

σBt − a2

2σ2t

).

SeaBt, t ∈ [0, T ] un movimiento browniano. Fijemos un numero real λ.Consideremos la martingala

Lt = exp(−λBt − λ2

2t). (30)

Observemos que el proceso estocastico Lt, t ∈ [0, T ] es una martingala pos-itiva de esperanza uno que satisface la ecuacion diferencial estocastica

Lt = 1−∫ t

0

λLsdBs.

62

Page 63: Calculo estocastico

La variable LT es una densidad de probabilidad en el espacio (Ω,FT , P ) quedefine una probabilidad Q dada por

Q(A) = E (1ALT ) ,

para todo A ∈ FT .La propiedad de martingala del proceso Lt implica que en el espacio

(Ω,Ft, P ), la probabilidad Q tiene densidad igual a Lt. En efecto, si Apertenece a la σ-algebra Ft se tiene

Q(A) = E (1ALT ) = E (E (1ALT |Ft))

= E (1AE (LT |Ft))

= E (1ALt) .

Teorema 15 (Teorema de Girsanov) En el espacio de probabilidad (Ω,FT , Q)el proceso estocastico

Wt = Bt + λt,

es un movimiento browniano.

Antes de demostrar este teorema probaremos un resultado tecnico:

Lema 16 Supongamos que X es una variable aleatoria real y G es una σ-algebra tales que

E(

eiuX |G)= e−

u2σ2

2 .

Entonces, la variable X es independiente de la σ-algebra G y tiene una leynormal N(0, σ2).

Demostracion: Para todo suceso A ∈ G se cumplira

E(1AeiuX

)= P (A)e−

u2σ2

2 .

Por lo tanto, eligiendo A = Ω obtenemos la funcion caracterıstica de X , y enconsecuencia, X tiene una ley N(0, σ2). Por otra parte, fijado un suceso A ∈ G,la funcion caracterıstica de la variable X respecto de la probabilidad condicionadapor A sera tambien

EA

(eiuX

)= e−

u2σ2

2 .

63

Page 64: Calculo estocastico

Es decir, la ley de X condicionada por A es tambien una ley normal N(0, σ2).Por consiguiente, tendremos

PA(X ≤ x) = Φ(x/σ) ,

yP ((X ≤ x) ∩ A) = P (A)Φ(x/σ) = P (A)P (X ≤ x), (31)

donde Φ representa la funcion de distribucion de la ley N(0, 1). La igualdad (31)nos da la independencia entre la variable X y la σ-algebra G . ¤

Demostracion del teorema de Girsanov: Sera suficiente con demostrarque, en el espacio de probabilidad (Ω,FT , Q), para todo s < t ≤ T el incrementoWt −Ws es independiente de Fs y tiene ley normal N(0, t− s).

Teniendo en cuenta el lemma anterior, estas dos propiedades se deducen de laformula siguiente, para todo s < t, A ∈ Fs, u ∈ R,

EQ

(1Aeiu(Wt−Ws)

)= Q(A)e−

u2

2(t−s). (32)

Para demostrar la formula (32) ponemos

EQ

(1Aeiu(Wt−Ws)

)= E

(1Aeiu(Wt−Ws)Lt

)

= E(1Aeiu(Bt−Bs)+iuλ(t−s)−λ(Bt−Bs)−λ2

2(t−s)Ls

)

= E(1ALs)E(e(iu−λ)(Bt−Bs)

)eiuλ(t−s)−λ2

2(t−s)

= Q(A)e(iu−λ)2

2(t−s)+iuλ(t−s)−λ2

2(t−s)

= Q(A)e−u2

2(t−s).

¤El teorema de Girsanov admite la siguiente generalizacion:

Teorema 17 Sea θt, t ∈ [0, T ] un proceso adaptado y tal que cumple ladenominada condicion de Novikov:

E

(exp

(1

2

∫ T

0

θ2t dt

))< ∞. (33)

Entonces, el proceso

Wt = Bt +

∫ t

0

θsds

64

Page 65: Calculo estocastico

es un movimiento browniano respecto de la probabilidad Q definida por

Q(A) = E (1ALT ) ,

donde

Lt = exp

(−

∫ t

0

θsdBs − 1

2

∫ t

0

θ2sds

).

Observemos que de nuevo Lt es satisface la ecuacion diferencial estocastica

Lt = 1−∫ t

0

θsLsdBs.

Para que el proceso Lt sea una martingala y tengamos E(Lt) = 1, necesitamosque θsLs pertenezca a la clase L2

a,T . La condicion (33) sirve para aseguraresta propiedad.

Como aplicacion del teorema de Girsanov deduciremos la ley del instantede llegada del movimiento browniano con deriva a un nivel a.

Sea Bt, t ≥ 0 un movimiento browniano. Fijado un valor λ, definimosla martingala Lt como en (30). Sea Q la probabilidad en ∪t≥0Ft tal que paratodo t ≥ 0

dQ

dP|Ft = Lt.

Por el teorema de Girsanov, para todo T > 0, en el espacio de probabili-dad (Ω,FT , Q) el proceso Bt + λt := Bt es un movimiento browniano en elintervalo de tiempo [0, T ]. Es decir, en este espacio Bt es un movimientobrowniano con deriva −λt. Sea

τa = inft ≥ 0, Bt = a,

donde a 6= 0. Para cada t ≥ 0 el suceso τa ≤ t pertenece a la σ-algebraFτa∧t ya que para todo s ≥ 0

τa ≤ t ∩ τa ∧ t ≤ s = τa ≤ t ∩ τa ≤ s= τa ≤ t ∧ s ∈ Fs∧t ⊂ Fs.

65

Page 66: Calculo estocastico

Por consiguiente, utilizando la propiedad de martingala respecto de los tiem-pos de paro obtenemos

Qτa ≤ t = E(1τa≤tLt

)= E

(1τa≤tE(Lt|Fτa∧t)

)

= E(1τa≤tLτa∧t

)= E

(1τa≤tLτa

)

= E(1τa≤te

−λa− 12λ2τa

)

=

∫ t

0

e−λa− 12λ2sf(s)ds,

donde f es la densidad de la variable τa. Sabemos que

f(s) =|a|√2πs3

e−a2

2s .

Por lo tanto, respecto de Q la variable aleatoria τa tiene una densidad iguala |a|√

2πs3e−

(a+λs)2

2s , s > 0.

Haciendo, t ↑ ∞ obtenemos

Qτa < ∞ = e−λaE(e−

12λ2τa

)= e−λa−|λa|.

Si λ = 0 (movimiento browniano sin deriva), la probabilidad de llegar algunavez a un nivel dado es igual a uno. Si −λa > 0 (la deriva −λ y el nivel atienen el mismo signo) esta probabilidad es tambien igual a uno. Si −λa < 0(la deriva −λ y el nivel a tienen signo distinto) la probabilidad vale e−2λa.

Ejercicios

2.1 Consideremos una funcion f tal que

∫ T

0

f(s)2ds < ∞.

Definimos la sucesion de funciones continuas

fn(t) =

∫ t

t− 1n

f(s)ds,

66

Page 67: Calculo estocastico

con la convencion f(s) = 0 si s < 0. Demostrar que se cumple

∫ T

0

(f(s)− fn(s))2 ds −→ 0n→∞−→ 0.

Indicacion: Sabemos que para cada ε > 0 podemos encontrar unafuncion continua g tal que

∫ T

0

(f(s)− g(s))2 ds < ε.

2.2 Consideremos un proceso estocastico M = Mt, t ≥ 0 que es una mar-tingala respecto de una filtracion Mt, t ≥ 0. Demostrar que el pro-ceso M tambien es una martingala respecto de la filtracion naturalFM

t = σ (Ms, 0 ≤ s ≤ t) ⊂Mt.

2.2 Consideremos una martingala M = Mt, t ≥ 0 respecto de una fil-tracion Mt, t ≥ 0 tal que E(M2

t ) < ∞ para todo t ≥ 0. Demostrarque si s < t

E((Mt −Ms)2 |Ms) = E(M2

t −M2s |Ms).

2.3 Demostrar que si τ es un tiempo de paro, Fτ definida en (18) es una σ-algebra y τ es Fτ -medible. Si X = Xt, t ≥ 0 es un proceso adaptadocon trayectorias continuas, y τ es finito, demostrar que la variable Xτ

es Fτ -medible.

2.4 Sea Y una variable aleatoria integrable y Mt, t ≥ 0 una familia cre-ciente de σ-algebras. Demostrar que

Mt = E(Y |Mt)

es una martingala.

2.5 Comprobar si los siguientes procesos estocasticos, definidos a partir de

67

Page 68: Calculo estocastico

un movimiento browniano Bt, son martingalas:

Xt = B3t − 3tBt

Xt = t2Bt − 2

∫ s

0

sBsds

Xt = et/2 cos Bt

Xt = et/2 sin Bt

Xt = (Bt + t) exp(−Bt − 1

2t)

Xt = B1(t)B2(t).

En el ultimo caso, B1 y B2 son dos movimientos brownianos indepen-dientes.

2.6 Supongamos que Bt es un movimiento browniano n-dimensional y seaf : Rn → R una funcion de clase C2. Utilizando la formula de Itodemostrar que

f(Bt) = f(0) +

∫ t

0

∇f(Bs)ds +1

2

∫ t

0

∆f(Bs)ds.

2.7 Encontrar el proceso u que nos proporciona la representacion integral

F = E(F ) +

∫ T

0

usdBs

en los ejemplos siguientes:

F = BT

F = B2T

F = eBT

F =

∫ T

0

Btdt

F = B3T

F = sin BT

2.8 Sea p(t, x) = 1/√

1− t exp(−x2/2(1 − t)), para 0 ≤ t < 1 y x ∈ R, yp(1, x) = 0. Definimos Mt = p(t, Bt), donde Bt, 0 ≤ t ≤ 1 es unmovimiento browniano.

68

Page 69: Calculo estocastico

a) Demostrar que

Mt = M0 +

∫ t

0

∂p

∂x(s,Bs)dBs.

b) Sea Ht = ∂p∂x

(t, Bt). Probar que∫ 1

0H2

t dt < ∞ casi seguramente,

pero E(∫ 1

0H2

t dt)

= ∞.

2.9 Sean Yt y Xt procesos de Ito. Demostrar la siguiente formula de inte-gracion por partes:

XtYt = X0Y0 +

∫ t

0

XsdYs +

∫ t

0

YsdXs +

∫ t

0

dXsdYs.

3 Ecuaciones diferenciales estocasticas

Queremos resolver ecuaciones diferenciales del tipo

dXt = b(t,Xt)dt + σ(t,Xt)dBt. (34)

Los coeficientes b(t, x) y σ(t, x) se denominan, respectivamente, coefi-ciente de deriva y coeficiente de difusion. Si el coeficiente de difusion seanula, entonces, tendremos una ecuacion diferencial ordinaria:

dXt

dt= b(t,Xt),

que puede resolverse, si conocemos la condicion inicial X0. Por ejemplo, enel caso lineal b(t, x) = b(t)x, la solucion es

Xt = X0 + eR t0 b(s)ds.

Una ecuacion diferencial del tipo (34) se denomina una ecuacion diferen-cial estocastica. La solucion sera un proceso estocastico Xt, t ≥ 0 contrayectorias continuas adaptado a la filtracion browniana. Los procesossolucion se denominan procesos de difusion.

Una interpretacion heurıstica de la ecuacion diferencial (34) serıa la sigu-iente: El incremento ∆Xt = Xt+∆t − Xt se expresa como una suma deb(t,Xt)∆t mas un termino que depende del incremento del movimiento brow-niano: σ(t, Xt)∆Bt y que se interpreta como una impulso aleatorio. Por

69

Page 70: Calculo estocastico

tanto, el incremento ∆Xt tendra una ley normal de media b(t,Xt)∆t y vari-anza σ(t,Xt)

2∆t.La formalizacion de estas ecuaciones se realiza transformandolas en ecua-

ciones integrales y utilizando integrales estocasticas:

Xt = X0 +

∫ t

0

b(s,Xs)ds +

∫ t

0

σ(s,Xs)dBs. (35)

El resultado fundamental sobre la existencia y unicidad de soluciones esel siguiente:

Teorema 18 Fijemos un intervalo de tiempo [0, T ]. Supongamos que loscoeficientes de la ecuacion (34) verifican:

|b(t, x)− b(t, y)| ≤ D1|x− y| (36)

|σ(t, x)− σ(t, y)| ≤ D2|x− y| (37)

|b(t, x)| ≤ C1(1 + |x|) (38)

|σ(t, x)| ≤ C2(1 + |x|), (39)

para todo x, y ∈ R, t ∈ [0, T ]. Supongamos que Z es una variable aleatoriaindependiente de la σ-algebra FT generada por el movimiento browniano en[0, T ], tal que E(Z2) < ∞. Entonces, existe un unico proceso Xt, t ∈ [0, T ]continuo, adaptado, solucion de (35) y tal que

E

(∫ T

0

|Xs|2ds

)< ∞.

Observaciones:

1.- Este resultado es cierto en dimension superior, cuando Bt es un movimientobrowniano m-dimensional, la solucion Xt es un proceso estocastico n-dimensional, y los coeficientes son funciones b : [0, T ] × Rn → Rn,σ : [0, T ]× Rn → Rn×m.

2.- La condicion de crecimiento lineal (38,39) garantiza que la solucion noexplota antes del tiempo final T . Por ejemplo, la ecuacion diferencialdeterminista

dXt

dt= X2

t , X0 = 1,

70

Page 71: Calculo estocastico

tiene por unica solucion la funcion

Xt =1

1− t, 0 ≤ t < 1,

que diverge en el instante t = 1.

3.- La condicion de Lipschitz (36,37) garantiza que no exista mas de unasolucion. Por ejemplo, la ecuacion diferencial determinista

dXt

dt= 3X

2/3t , X0 = 0,

tiene infinitas soluciones ya que para cada a > 0, la funcion

Xt =

0 si t ≤ a

(t− a)3 si t > a

es solucion. En este ejemplo la funcion b(x) = 3x2/3 no cumple lacondicion de Lipschitz ya que la derivada de b no esta acotada.

4.- Si los coeficientes b(t, x) y σ(t, x) son diferenciables en la variable x, lacondicion de Lipschitz significa que las derivadas parciales ∂b

∂xy ∂σ

∂xestan

acotadas por las constantes D1 y D2, respectivamente.

Demostracion del Teorema 18: Consideremos el espacio L2a,T de los

procesos adaptados a la filtracion FZt = σ(Z)∨Ft y tales que E

(∫ T

0|Xs|2ds

)<

∞. En este espacio introducimos la siguiente norma

‖X‖ =

(∫ T

0

e−λsE[X2

s

]ds

)1/2

,

donde λ es una constante tal que λ > 2 (TD21 + D2

2).Definimos un operador en este espacio de la forma siguiente

(LX)t = X0 +

∫ t

0

b(s,Xs)ds +

∫ t

0

σ(s,Xs)dBs.

Este operador esta bien definido debido a la propiedad de crecimiento lineal (38,39)de los coeficientes de la ecuacion.

71

Page 72: Calculo estocastico

La desigualdad de Schwartz y la isometrıa de la integral estocastica nos per-miten escribir

E[|(LX)t − (LY )t|2

] ≤ 2E

[(∫ t

0

(b(s,Xs)− b(s, Ys)) ds

)2]

+2E

[(∫ t

0

(σ(s,Xs)− σ(s,Xs)) dBs

)2]

≤ 2TE

[∫ t

0

(b(s,Xs)− b(s, Ys))2 ds

]

+2E

[∫ t

0

(σ(s,Xs)− σ(s,Xs))2 ds

].

Utilizando la propiedad de Lipschitz (36,37) se obtiene

E[|(LX)t − (LY )t|2

] ≤ 2(TD2

1 + D22

)E

[∫ t

0

(Xs − Ys)2 ds

].

Pongamos C = 2 (TD21 + D2

2). Por consiguiente, multiplicando por el factor e−λt

e integrando en [0, T ] se obtiene

∫ T

0

e−λtE[|(LX)t − (LY )t|2

]dt ≤ C

∫ T

0

e−λtE

[∫ t

0

(Xs − Ys)2 ds

]dt

≤ C

∫ T

0

(∫ T

s

e−λtdt

)E

[(Xs − Ys)

2] ds

≤ C

λ

∫ T

0

e−λsE[(Xs − Ys)

2] ds.

Por lo tanto,

‖LX − LY ‖ ≤√

C

λ‖X − Y ‖

y como√

< 1. Esto nos dice que el operador L es una contraccion en el espacio

L2a,T . El teorema del punto fijo nos asegura que este operador tiene un unico punto

fijo, lo que implica la unicidad y existencia de solucion de la ecuacion (35). ¤

72

Page 73: Calculo estocastico

3.1 Soluciones explıcitas de ecuaciones diferenciales es-tocasticas

La formula de Ito permite resolver explıcitamente algunas ecuaciones difer-enciales estocasticas. Veamos algunos ejemplos.

A) Ecuaciones lineales. El movimiento browniano geometrico

Xt = X0e

µ−σ2

2

t+σBt

satisface la ecuacion lineal

dXt = µXtdt + σXtdBt.

Mas generalmente, la solucion de la ecuacion lineal homogenea

dXt = b(t)Xtdt + σ(t)XtdBt

sera

Xt = X0 exp[∫ t

0

(b(s)− 1

2σ2(s)

)ds +

∫ t

0σ(s)dBs

]

B) El proceso de Ornstein-Uhlenbeck. Consideremos la ecuacion diferencialestocastica

dXt = a (m−Xt) dt + σdBt

X0 = x,

donde a, σ > 0 y m es un numero real. Como se trata de una ecuacionlineal no homogenea, utilizaremos el metodo de variacion de las con-stantes. La solucion de la ecuacion homogenea

dxt = −axtdt

x0 = x

es xt = xe−at. Entonces hacemos el cambio de variable Xt = Yte−at, es

decir, Yt = Xteat. El proceso Yt satisface

dYt = aXteatdt + eatdXt

= ameatdt + σeatdBt.

73

Page 74: Calculo estocastico

Por tanto,

Yt = x + m(eat − 1) + σ

∫ t

0

easdBs,

lo que implica

Xt = m + (x−m)e−at + σe−at∫ t

0easdBs

El proceso estocastico Xt es gaussiano. La media y varianza de cadavariable Xt pueden calcularse facilmente:

E(Xt) = m + (x−m)e−at,

V arXt = σ2e−2atE

[(∫ t

0

easdBs

)2]

= e−2at

∫ t

0

e2asds =σ2

2a

(1− e−2at

).

La distribucion de Xt cuando t tiende a infinito converge hacia la leynormal

N(m,σ2

2a).

Esta ley se denomina la ley invariante o estacionaria. En el caso m = 0este proceso se denomina el proceso de Ornstein-Uhlenbeck.

C) Consideremos una ecuacion diferencial estocastica del tipo

dXt = f(t, Xt)dt + c(t)XtdBt, X0 = x, (40)

donde f(t, x) y c(t) son funciones deterministas continuas, tales que fsatisface las condiciones de crecimiento lineal y propiedad de Lipschitzen la variable x. Esta ecuacion se puede resolver siguiendo los pasossiguientes:

a) Se considera el “factor integrante”

Ft = exp

(−

∫ t

0

c(s)dBs +1

2

∫ t

0

c2(s)ds

),

tal que F−1t es solucion de la ecuacion (40) si f = 0 y x = 1. El

proceso Yt = FtXt cumple

dYt = Ftf(t, F−1t Yt)dt, Y0 = x. (41)

74

Page 75: Calculo estocastico

b) La ecuacion (41) es una ecuacion diferencial determinista, parametrizadapor ω ∈ Ω, que podra resolverse mediante metodos habituales.

Por ejemplo, supongamos que f(t, x) = f(t)x. En tal caso la ecuacion(41) es

dYt = f(t)Ytdt,

de lo que se deduce

Yt = x exp

(∫ t

0

f(s)ds

)

y, por lo tanto,

Xt = x exp(∫ t

0f(s)ds +

∫ t

0c(s)dBs − 1

2

∫ t

0c2(s)ds

)

D) Ecuacion diferencial estocastica lineal general. Consideremos la ecuacion

dXt = (a(t) + b(t)Xt) dt + (c(t) + d(t)Xt) dBt,

con condicion inicial X0 = x, donde a, b, c y d son funciones continuas.Utilizando el metodo de variacion de las constantes propondremos unasolucion de la forma

Xt = UtVt (42)

dondedUt = b(t)Utdt + d(t)UtdBt

ydVt = α(t)dt + β(t)dBt,

con U0 = 1 y V0 = x. Por el apartado C sabemos que

Ut = exp

(∫ t

0

b(s)ds +

∫ t

0

d(s)dBs − 1

2

∫ t

0

d2(s)ds

).

Por otra parte, diferenciando la igualdad (42) obtenemos

a(t) = Utα(t) + β(t)d(t)Ut

c(t) = Utβ(t)

75

Page 76: Calculo estocastico

es decir

β(t) = c(t) U−1t

α(t) = [a(t)− c(t)d(t)] U−1t .

Finalmente,

Xt = Ut

(x +

∫ t

0[a(s)− c(s)d(s)] U−1

s ds +∫ t

0c(s) U−1

s dBs

)

La ecuacion diferencial estocastica de Ito

Xt = X0 +

∫ t

0

b(s,Xs)ds +

∫ t

0

σ(s,Xs)dBs,

puede transformarse en una ecuacion de Stratonovich, utilizando la formula(27) que nos relaciona ambos tipos de integral. Ası, se obtiene

Xt = X0 +

∫ t

0

b(s,Xs)ds−∫ t

0

1

2(σσ′) (s,Xs)ds +

∫ t

0

σ(s,Xs) dBs,

ya que la expresion del proceso σ(s,Xs) como proceso de Ito serıa

σ(t,Xt) = σ(0, X0) +

∫ t

0

(σ′b− 1

2σ′′σ2

)(s,Xs)ds

+

∫ t

0

(σσ′) (s,Xs)dBs.

Yamada y Watanabe demostraron en 1971 que la condicion de Lipschitzpodıa debilitarse de la forma siguiente, en el caso de ecuaciones diferencialesestocasticas unidimensionales. Supongamos que los coeficientes b y σ no de-penden del tiempo, el coeficiente b es Lipschitz, pero el coeficiente σ satisfacela condicion de Holder

|σ(x)− σ(y)| ≤ D|x− y|α,

donde α ≥ 12. En tal caso existe una unica solucion de la ecuacion.

Por ejemplo, la ecuacion dXt = |Xt|rdBt

X0 = 0

tiene una solucion unica si r ≥ 1/2.

76

Page 77: Calculo estocastico

3.2 Soluciones fuertes y soluciones debiles

La solucion Xt que hemos encontrado antes es una solucion fuerte porque esun proceso adaptado a la familia de σ-algebras

FZt = σ(Bs, s ≤ t, Z).

Podemos plantear el problema de forma diferente. Nos dan los coeficientesb(t, x) y σ(t, x) y nos piden que encontremos un par de procesos Xt, Bt en unespacio de probabilidad (Ω,F , P ) tales que Bt es un movimiento brownianorelativo a una filtracionHt y Xt satisface la ecuacion (34) en este espacio. Di-remos entonces que (Ω,F , P,Ht, Xt, Bt) es una solucion debil de la ecuacion(34).

Pueden demostrarse los siguientes resultados:

• Toda solucion fuerte es tambien una solucion debil.

• Una ecuacion con coeficientes b(t, x) y σ(t, x) se dice que tiene unicidaddebil si dos soluciones debiles tienen la misma ley (las mismas distribu-ciones en dimension finita). Si los coeficientes satisfacen las condicionesdel Teorema (18) entonces se satisface la unicidad debil.

• La existencia de soluciones debiles puede asegurarse suponiendo sola-mente que los coeficientes b(t, x) y σ(t, x) son funciones continuas yacotadas.

La ecuacion de Tanaka

dXt = sign (Xt) dBt, X0 = 0,

no tiene ninguna solucion fuerte pero tiene una solucion debil unica.

3.3 Aproximaciones numericas

Muchas ecuaciones diferenciales estocasticas no pueden resolverse explıcitamente.Por ello es conveniente disponer de metodos numericos que permiten la sim-ulacion de soluciones.

77

Page 78: Calculo estocastico

Consideremos la ecuacion diferencial estocastica con coeficientes indepen-dientes del tiempo

dXt = b(Xt)dt + σ(Xt)dBt, (43)

con condicion inicial X0 = x.Fijemos un intervalo de tiempo [0, T ] y consideremos la subdivision for-

mada por los puntos

tj =iT

n, i = 0, 1, . . . , n.

La longitud de cada subintervalo sera δn = Tn.

El metodo de Euler consiste en el esquema recursivo siguiente:

X(n)(ti) = X(n)(ti−1) + b(X(n)(ti−1))δn + σ(X(n)(ti−1))∆Bi,

i = 1, . . . , n, donde ∆Bi = Bti − Bti−1. El valor inicial sera X

(n)0 = x.

En los puntos de cada intervalo (titi+1) el valor del proceso X(n) se deducepor interpolacion lineal. El proceso X(n) es una funcion del movimientobrowniano y podemos medir el error comerido al aproximar X por X(n):

en = E

[(XT −X

(n)T

)2]

.

Puede demostrarse que en es del orden δ1/2n es decir,

en ≤ cδ1/2n

si n ≥ n0.Para simular una solucion mediante el metodo de Euler, basta con obtener

valores de n variables aleatorias ξ1, . . . ., ξn independientes con ley N(0, 1), ysubstituir ∆Bi por

√δnξi.

El metodo de Euler puede mejorarse mediante una correccion adicional.Esto nos lleva a introducir el metodo de Milstein.

El valor exacto del incremento entre dos puntos de la particion es

X(ti) = X(ti−1) +

∫ ti

ti−1

b(Xs)ds +

∫ ti

ti−1

σ(Xs)dBs. (44)

En el metodo de Euler se basa en aproximar las integrales de la forma sigu-iente: ∫ ti

ti−1

b(s)ds ≈ b(X(n)(ti−1))δn,

∫ ti

ti−1

σ(s)dBs ≈ σ(X(n)(ti−1))∆Bi.

78

Page 79: Calculo estocastico

En el metodo de Milstein, aplicaremos la formula de Ito a los procesos b(Xs) yσ(Xs) que aparecen en (44), con objeto de obtener una aproximacion mejor.De esta forma obtenemos

X(ti)−X(ti−1)

=

∫ ti

ti−1

[b(X(n)(ti−1)) +

∫ s

ti−1

(bb′ +

1

2b′′σ2

)(Xr)dr +

∫ s

ti−1

(σb′) (Xr)dBr

]ds

+

∫ ti

ti−1

[σ(X(n)(ti−1)) +

∫ s

ti−1

(bσ′ +

1

2σ′′σ2

)(Xr)dr +

∫ s

ti−1

(σσ′) (Xr)dBr

]dBs

= b(X(n)(ti−1))δn + σ(X(n)(ti−1))∆Bi + Ri.

El termino dominante en el resto es la integral estocastica doble

∫ ti

ti−1

(∫ s

ti−1

(σσ′) (Xr)dBr

)dBs,

y puede demostrarse que las demas componentes del resto son de ordenesinferiores y pueden despreciarse. La integral estocastica doble puede, a suvez, aproximarse por

(σσ′) (X(n)(ti−1))

∫ ti

ti−1

(∫ s

ti−1

dBr

)dBs.

Las reglas del calculo estocastico nos permiten calcular la integral doble quenos queda:

∫ ti

ti−1

(∫ s

ti−1

dBr

)dBs =

∫ ti

ti−1

(Bs −Bti−1

)dBs

=1

2

(B2

ti−B2

ti−1

)−Bti−1

(Bti −Bti−1

)− δ2n

=1

2(∆Bi)

2 − δ2n.

En conclusion, el metodo de Milstein consiste en el sistema recursivo siguiente

X(n)(ti) = X(n)(ti−1) + b(X(n)(ti−1))δn + σ(X(n)(ti−1)) ∆Bi

+1

2(σσ′) (X(n)(ti−1))

[(∆Bi)

2 − δ2n

].

79

Page 80: Calculo estocastico

Puede demostarse que el error en es del orden δn es decir,

en ≤ cδn

si n ≥ n0.

3.4 Propiedad de Markov

Consideremos un proceso de difusion n-dimensional Xt, t ≥ 0 que satisfaceuna ecuacion diferencial estocastica del tipo

dXt = b(t,Xt)dt + σ(t,Xt)dBt, (45)

donde B es un movimiento browniano m-dimensional y los coeficientes b y σson funciones que satisfacen las hipotesis del Teorema (18).

Seguidamente demostraremos que los procesos de difusion satisfacen lapropiedad de Markov. Esta propiedad nos dice que el comportamiento futurodel proceso, conociendo la informacion hasta el instante t solo depende delvalor del proceso en el instante presente, Xt.

Definicion 19 Diremos que un proceso estocastico n-dimensional Xt, t ≥0 es un proceso de Markov si para todo s < t se tiene

E(f(Xt)|Xr, r ≤ s) = E(fXt)|Xs),

para toda funcion medible y acotada f en Rn.

La ley de probabilidad de los procesos de Markov se caracteriza mediantelas denominadas probabilidades de transicion:

P (C, t, x, s) = P (Xt ∈ C|Xs = x),

donde 0 ≤ s < t, C ∈ BRn y x ∈ Rn. Es decir, P (·, t, x, s) es la ley de proba-bilidad de la variable Xt condicionada por Xs = x. Si esta ley condicionadatiene densidad, la designaremos por p(y, t, x, s). Por ejemplo, el movimientobrowniano real Bt es un proceso de Markov con probabilidades de transiciondadas por

p(y, t, x, s) =1√

2π(t− s)e−

(x−y)2

2(t−s) .

80

Page 81: Calculo estocastico

Designaremos por Xs,xt , t ≥ s la solucion de la ecuacion diferencial es-

tocastica (45) en el intervalo de tiempo [s,∞) y con condicion inicial Xs,xs =

x. Si s = 0, escribiremos X0,xt = Xx

t .Puede demostrarse que existe una version continua en los tres parametros

del proceso estocastico

Xs,xt , 0 ≤ s ≤ t, x ∈ Rn .

Por otra parte, para cada 0 ≤ s ≤ t se cumple la siguiente propiedad:

Xxt = X

s,Xxs

t (46)

En efecto, Xxt para t ≥ s satisface la ecuacion diferencial estocastica

Xxt = Xx

s +

∫ t

s

b(u,Xxu)du +

∫ t

s

σ(u,Xxu)dBu.

Por otra parte, Xs,yt verifica

Xs,yt = y +

∫ t

s

b(u,Xs,yu )du +

∫ t

s

σ(u,Xs,yu )dBu

y substituyendo y por Xxs obtenemos que los procesos Xx

t y Xs,Xx

st son solu-

ciones de la misma ecuacion en el intervalo [s,∞) con condicion inicial Xxs .

Por la unicidad de soluciones deben coincidir.

Teorema 20 (Propiedad de Markov de las difusiones) Sea f una funcionmedible y acotada definida en Rn. Entonces, para cada 0 ≤ s < t tendremos

E [f(Xt)|Fs] = E [f(Xs,xt )] |x=Xs .

Demostracion: Tenemos, utilizando (46) y la Regla 7 de la esperanza condi-cionada:

E [f(Xt)|Fs] = E[f(Xs,Xs

t )|Fs

]= E [f(Xs,x

t )] |x=Xs ,

ya que el proceso Xs,xt , t ≥ s, x ∈ Rn es independiente de Fs y la variable Xs

es medible respecto de Fs.Este teorema nos dice que los procesos de difusion tienen la propiedad de

Markov y sus probabilidades de transicion son

P (C, t, x, s) = P (Xs,xt ∈ C).

81

Page 82: Calculo estocastico

Si el proceso de difusion es homogeneo en el tiempo, la propiedad de Markovse escribe

E [f(Xt)|Fs] = E[f(Xx

t−s)] |x=Xs .

¤

3.5 Generador de una difusion

Consideremos un proceso de difusion n-dimensional Xt, t ≥ 0 que satisfaceuna ecuacion diferencial estocastica del tipo

dXt = b(t,Xt)dt + σ(t,Xt)dBt.

donde B es un movimiento browniano m-dimensional. Supondremos quelos coeficientes b y σ satisfacen las hipotesis del Teorema 18 y que X0 esconstante.

Podemos asociar a un proceso de difusion un operador diferencial de se-gundo orden. Dicho operador, que denotaremos por As, s ≥ 0, se denominael generador de la difusion, y se define por

Asf(x) =∑n

i=1 bi(s, x) ∂f∂xi

+ 12

∑ni,j=1 (σσ′)i,j (s, x) ∂2f

∂xi∂xj. (47)

En esta expresion f es una funcion en Rn dos veces derivable con derivadasparciales continuas (de clase C1,2). La matriz (σσ′) (s, x) es simetrica ysemidefinida positiva:

(σσ′)i,j (s, x) =n∑

k=1

σi,k(s, x)σj,k(s, x).

La relacion entre el operador As y la difusion viene dada por la siguientepropiedad, consecuencia de la formula de Ito: Si f(t, x) es una funcion declase C1,2, entonces, f(t,Xt) es un proceso de Ito con diferencial

df(t,Xt) =

(∂f

∂t(t, Xt) + Atf(t,Xt)

)dt

+n∑

i=1

m∑j=1

∂f

∂xi(t,Xt)σi,j(t,Xt)dBj

t .

82

Page 83: Calculo estocastico

Por consiguiente, si se cumple

E

(∫ t

0

∣∣∣∣∂f

∂xi(s,Xs)σi,j(s,Xs)

∣∣∣∣2

ds

)< ∞ (48)

para cada t > 0 y cada i, j, el proceso

Mt = f(t,Xt) −∫ t

0

(∂f

∂s+ Asf

)(s,Xs)ds (49)

sera una martingala. Condiciones suficientes para (48) son:

a) Las derivadas parciales ∂f∂xi estan acotadas.

b) Existen constantes ct, kt tales que para cada s ∈ [0, t]

∣∣∣∣∂f

∂s(s, x)

∣∣∣∣ +

∣∣∣∣∂f

∂xi(s, x)

∣∣∣∣ +

∣∣∣∣∂2f

∂xi∂xj(s, x)

∣∣∣∣ ≤ ctekt|x|.

En particular si f satisface la ecuacion

∂f∂t

+ Atf = 0 (50)

y se cumple a) o b), entonces f(t, Xt) es una martingala.La propiedad de martingala de este proceso nos permite dar una inter-

pretacion probabilista de la solucion de una ecuacion parabolica con condicionterminal fijada: Si la funcion f(t, x) satisface (50) en [0, T ] × Rn con lacondicion terminal f(T, x) = g(x), entonces

f(t, x) = E(g(X t,xT ))

casi por todo respecto de la ley de Xt. En efecto, la propiedad de martingaladel proceso f(t,Xt) implica

f(t,Xt) = E(f(T, XT )|Xt) = E(g(XT )|Xt) = E(g(X t,xT ))|x=Xt .

Consideremos una funcion q(x) continua y acotada inferiormente. En-tonces, aplicando de nuevo la formula de Ito puede demostrarse que, si la

83

Page 84: Calculo estocastico

funcion f es de clase C1,2 y cumple una de las condiciones a) o b) anteriores,el proceso

Mt = e−R t0 q(Xs)dsf(t,Xt)−

∫ t

0

e−R s0 q(Xr)dr

(∂f

∂s+ Asf − qf

)(s,Xs)ds

es una martingala. En efecto,

dMt = e−R t0 q(Xs)ds

n∑i=1

m∑j=1

∂f

∂xi(t,Xt)σi,j(t,Xt)dBj

t .

Si la funcion f satisface la ecuacion

∂f

∂s+ Asf − qf = 0 (51)

entonces,

e−R t0 q(Xs)dsf(t,Xt) (52)

sera una martingala.Supongamos que f(t, x) satisface (51) en [0, T ]×Rn con condicion termi-

nal f(T, x) = g(x). Entonces,

f(t, x) = E(e−

R Tt q(Xt,x

s )dsg(X t,xT )

).

En efecto, la propiedad de martingala del proceso (52) implica

f(t,Xt) = E(e−

R Tt q(Xs)dsf(T,XT )|Ft

).

Finalmente, la propiedad de Markov nos permite escribir

E(e−

R Tt q(Xs)dsf(T,XT )|Ft

)= E

(e−

R Tt q(Xt,x

s )dsg(X t,xT )

)|x=Xt .

Tomando esperanzas en la ecuacion (49) se obtiene

E(f(t,Xt)) = f(0, X0) + E

∫ t

0

(∂f

∂s+ Asf

)(s,Xs)ds.

Esta es la denominada formula de Dynkin que tiene una extension a tiemposde paro. Designaremos por C2

0(Rn) el conjunto de las funciones f en Rn condos derivadas parciales continuas y soporte compacto.

84

Page 85: Calculo estocastico

Teorema 21 (Formula de Dynkin) Sea f ∈ C20(Rn) y consideremos un

proceso de difusion Xt, t ≥ 0 que satisface la ecuacion diferencial es-tocastica (45), con condicion inicial constante. Entonces, si τ es un tiempode paro tal que E(τ) < ∞,

E [f(Xτ )] = f(X0) + E

∫ τ

0

(Asf) (Xs)ds.

En particular si τ es el tiempo de salida de un conjunto acotado, lacondicion E(τ) < ∞ siempre se cumple.

Demostracion: Utilizando la formula de Ito es suficiente con ver que

n∑i=1

m∑

k=1

E

[∫ τ

0

∂f

∂xi

(Xs)σi,k(s,Xs)dBks

]= 0.

Consideremos la sucesion de variables aleatorias, para cada i, k fijados,

ξN =

∫ τ∧N

0

∂f

∂xi

(Xs)σi,k(s,Xs)dBks .

Esta sucesion converge casi seguramente hacia la variable

ξ =

∫ τ

0

∂f

∂xi

(Xs)σi,k(s,Xs)dBks .

La propiedad (20) implica

E [ξN ] = E

[∫ N

0

∂f

∂xi

(Xs)σi,k(s,Xs)1s≤τdBks

]= 0.

Por otra parte, como la funcion f tiene soporte compacto, el proceso ∂f∂xi

(Xs)σi,k(s,Xs)esta acotado por una constante c y por consiguiente,

E[(ξN)2] = E

[∫ N

0

(∂f

∂xi

(Xs)σi,k(s,Xs)1s≤τ

)2

ds

]≤ Nc2E(τ) < ∞.

La acotacion uniforme de los momentos de orden 2 de las variables ξN , y laconvergencia casi segura de la sucesion ξN hacia la variable ξ implican

E(ξ) = limN→∞

E(ξN) = 0.

85

Page 86: Calculo estocastico

¤Como aplicacion consideremos el siguiente problema. Sea Bt un movimiento

browniano n-dimensional tal que B0 = a, y supongamos |a| < R. Cual es laesperanza del tiempo de salida τK de la bola de radio R :

K = x ∈ Rn : |x| < R.Apliquemos la fomula de Dynkin a X = B, τ = τK ∧N y sea f una funcionde C2

0(Rn) tal que f(x) = |x|2 para |x|2 ≤ R. Tendremos

E[f(Bτ )] = f(a) +1

2E

[∫ τ

0

∆f(Bs)ds

]

= |a|2 + nE [τ ] .

Por tanto,

E [τK ∧N ] =1

n

(R2 − |a|2)

y haciendo N →∞ obtenemos

E [τK ] =1

n

(R2 − |a|2) .

3.6 Procesos de difusion y ecuaciones en derivadas par-ciales

Existe una relacion interesante entre procesos de difusion y ecuaciones enderivadas parciales. En general, los procesos de difusion permiten dar in-terpretaciones probabilistas de ecuaciones en derivadas parciales de segundoorden.

Consideremos el siguiente ejemplo sencillo. Si Bt es un movimiento brow-niano, y f es una funcion continua y con crecimiento polinomial, la funcion

u(t, x) = E(f(Bt + x))

satisface la ecuacion de la calor:

∂u

∂t=

1

2

∂2u

∂x2, (53)

con condicion inicial u(0, x) = f(x). Esto es debido a que podemos escribir

E(f(Bt + x)) =

∫ ∞

−∞f(y)

1√2πt

e−(x−y)2

2t dy,

86

Page 87: Calculo estocastico

y la funcion 1√2πt

e−(x−y)2

2t para cada y fijo, satisface la ecuacion (53).

La funcion x 7→ u(t, x) representa la distribucion de temperaturas en unabarra de longitud infinita, suponiendo un perfil inicial de temperaturas dadopor la funcion f(x).

Consideremos una difusion es homogenea en el tiempo. En tal caso, elgenerador A no depende del tiempo y vale:

Af(x) =n∑

i=1

bi(x)∂f

∂xi

+1

2

n∑i,j=1

(σσ′)i,j (x)∂2f

∂xi∂xj

. (54)

La formula de Dynkin, suponiendo X0 = x, nos dice que

E [f(Xxt )] = f(x) +

∫ t

0E [Af(Xx

s )] ds. (55)

Consideremos la funcion

u(t, x) = E [f(Xxt )]. (56)

La formula (55) nos dice que esta funcion es diferenciable y satisface la sigu-iente ecuacion

∂u

∂t= E [Af(Xx

t )] .

El termino E [Af(Xxt )] puede tambien expresarse en funcion de u. Para ello

necesitamos introducir el dominio del generador de la difusion:

Definicion 22 El dominio DA del generador de la difusion Xt es el con-junto de funciones f : Rn → R tales que el lımite siguiente existe para todox ∈ Rn

Af(x) = limt↓0

E [f(Xxt )]− f(x)

t. (57)

La expresion (55) nos dice que C20(Rn) ⊂ DA y para toda funcion f ∈

C20(Rn), el lımite (57) es igual a al valor Af dado por (54).

El siguiente resultado nos dice que la funcion u(t, x) definida en (56) sat-isface una ecuacion en derivadas parciales, denominada ecuacion retrograda(bakward) de Kolmogorov. Esto nos proporciona una interpretacion proba-bilista de las ecuaciones en derivadas parciales de tipo parabolico.

Teorema 23 Sea f ∈ C20(Rn).

87

Page 88: Calculo estocastico

a) Definimos u(t, x) = E [f(Xxt )]. Entonces, u(t, ·) ∈ DA para cada t y

∂u∂t

= Auu(0, x) = f(x)

(58)

b) Si w ∈ C1,2([0,∞)×Rn) es una funcion acotada que satisface la ecuacion(58), entonces w(t, x) = E [f(Xx

t )].

Demostracion: a) Hemos de calcular el lımite cuando r ↓ 0 de la expresion

E [u(t,Xxr )]− u(t, x)

r.

Aplicando la propiedad de Markov obtenemos

E [u(t,Xxr )] = E

[E [f(Xy

t )] |y=Xxr

]

= E[f(Xx

t+r)]

= u(t + r, x).

Finalmente, como t → u(t, x) es diferenciable

E [u(t,Xxr )]− u(t, x)

r=

1

r(u(t + r, x)− u(t, x)) −→ ∂u

∂t.

b) Consideremos el proceso (n + 1)-dimensional

Yt = (s− t,Xxt ).

La formula de Ito aplicada a este proceso y a la funcion w nos da

w(Yt) = w(s, x) +

∫ t

0

(Aw − ∂w

∂r

)(s− r,Xx

r )dr

+

∫ t

0

n∑i=1

m∑j=1

∂w

∂xi

(s− r,Xxr )σi,j(X

xr )dBj

r .

Teniendo encuenta que w satisface la ecuacion Aw = ∂w∂t

, obtenemos

w(Yt) = w(s, x) +

∫ t

0

n∑i=1

m∑j=1

∂w

∂xi

(s− r,Xxr )σi,j(X

xr )dBj

r .

88

Page 89: Calculo estocastico

Ahora deseamos tomar esperanzas, pero como no hemos impuesto ninguna condicionde crecimiento sobre las derivadas parciales de la funcion w no sabemos si la inte-gral estocastica tiene esperanza cero. Por ello, debemos introducir un tiempo deparo, para un R > 0, fijado, definido por

τR = inft > 0 : |Xxt | ≥ R.

Para r ≤ τR , el proceso ∂w∂xi

(s− r,Xxr )σi,j(X

xr ) esta acotado. Por tanto,

E [w(Yt∧τR)] = w(s, x),

y haciendo R ↑ ∞, se obtiene

E [w(Yt)] = w(s, x).

Finalmente, tomando t = s, y utilizando la propiedad w(0, x) = f(x), obtenemos

E [f(Xxt )] = w(s, x).

¤

Notemos por pt(x, y) la solucion fundamental de la ecuacion parabolica(58). Es decir, tal solucion se obtiene formalmente tomando como funcionf la delta δy. Entonces, y −→ pt(x, y) es la densidad de probabilidad de lavariable aleatoria Xx

t :

u(t, x) = E [f(Xxt )] =

Rn

f(y)pt(x, y)dy.

Esto nos dice tambien que p(y, t, x, s) = pt−s(x, y) seran las probabilidadesde tansicion del proceso de Markov Xt.

Ejemplo 21En el caso b = 0, σ = I, el proceso de difusion Xt es el movimiento

browniano Bt n-dimensional. Su generador sera el operador de Laplace:

∆ = 12

∑ni=1

∂2

∂x2i.

La ecuacion de Kolmogorov en este caso es precisamente la ecuacion de lacalor:

∂u

∂t=

1

2∆f.

89

Page 90: Calculo estocastico

La solucion fundamental de esta ecuacion es la densidad gaussiana:

pt(x, y) = (2πt)−n/2 exp

(−|x− y|2

2t

).

La formula de Feynman-Kac es una generalizacion de la ecuacion de Kol-mogorov que hemos obtenido en el apartado anterior.

Teorema 24 Sean f ∈ C20(Rn) y q ∈ C(Rn). Suponemos que la funcion q

esta acotada inferiormente. Consideremos un proceso de difusion Xt, t ≥ 0que satisface la ecuacion diferencial estocastica (45).

a) Definimos

v(t, x) = E

[exp

(−

∫ t

0

q(Xxs )ds

)f(Xx

t )

].

Entonces, u(t, ·) ∈ DA para cada t y

∂v∂t

= Av − qvu(0, x) = f(x)

(59)

b) Si w ∈ C1,2([0,∞)× Rn) es una funcion acotada en cada [0, T ]× Rnquesatisface la ecuacion (59), entonces w(t, x) = v(t, x).

Demostracion: a) Pongamos Yt = f(Xxt ), Zt = exp

(− ∫ t

0q(Xx

s )ds).

EntoncesdZt = −Ztq(X

xt )dt.

Por lo tanto,d(YtZt) = YtdZt + ZtdYt,

ya que dZtdYt = 0. Como YtZt es un proceso de Ito, la funcion v(t, x) = E(YtZt)es diferenciable respecto de la variable t. En efecto,

v(t, x) = f(x)−∫ t

0

E [YsZsq(Xxs )] ds +

∫ t

0

E [ZsAf(Xxs )] ds,

ya que el termino de integral estocastica tiene esperanza cero, teniendo en cuentaque f tiene soporte compacto y q esta acotada inferiormente. Por consiguiente,

90

Page 91: Calculo estocastico

Aplicando la propiedad de Markov obtenemos

E[v(t,Xxr )] = E[E[exp

(−

∫ t

0

q(Xys )ds

)f(Xy

t )]|y=Xxr]

= E[E[exp

(−

∫ t

0

q(Xxs+r)ds

)f(Xx

t+r)]|Fr]

= E[exp

(−

∫ t

0

q(Xxs+r)ds

)f(Xx

t+r)]

= E[exp

(∫ r

0

q(Xxs )ds

)Zt+rf(Xx

t+r)]

= v(t + r, x) + E

[(exp

(∫ r

0

q(Xxs )ds

)− 1

)Zt+rf(Xx

t+r)

]

Finalmente, como t → v(t, x) es diferenciable y

1

rE

[(exp

(∫ r

0

q(Xxs )ds

)− 1

)Zt+rf(Xx

t+r)

]r↓0−→ q(x)v(t, x),

obtenemosE [v(t,Xx

r )]− v(t, x)

r

r↓0−→ ∂v

∂t+ qv.

b) Consideremos los procesos

Yt = (s− t,Xxt )

Rt =

∫ t

0

q(Xxs )ds.

La formula de Ito aplicada a estos procesos y a la funcion φ(s, x, z) = e−zw(s, x)nos da

e−Rtw(Yt) = w(s, x) +

∫ t

0

(Aw − ∂w

∂r− qw

)(s− r,Xx

r )e−Rrdr

+

∫ t

0

n∑i=1

m∑j=1

∂w

∂xi

(s− r,Xxr )σi,j(X

xr )e−RrdBj

r .

Teniendo encuenta que w satisface la ecuacion Aw + qw = ∂w∂t

, obtenemos

e−Rtw(Yt) = w(s, x) +

∫ t

0

n∑i=1

m∑j=1

∂w

∂xi

(s− r,Xxr )σi,j(X

xr )e−RrdBj

r .

91

Page 92: Calculo estocastico

Introduciendo, com antes, el tiempo de paro

τR = inft > 0 : |Xxt | ≥ R,

tendremos que para r ≤ τR , el proceso ∂w∂xi

(s−r,Xxr )σi,j(X

xr )e−Rr esta acotado.

Por tanto,E

[e−Rt∧τR w(Yt∧τR

)]

= w(s, x),

y haciendo R ↑ ∞, se obtiene

E[e−Rtw(Yt)

]= w(s, x).

Finalmente, tomando t = s, y utilizando la propiedad w(0, x) = f(x), obtenemos

E

[exp

(−

∫ t

0

q(Xxs )ds

)f(Xx

t )

]= w(s, x).

¤

Ejercicios

3.1 Comprobar que los siguientes procesos satisfacen las ecuaciones diferen-ciales estocasticas indicadas:

(i) El proceso Xt = Bt

1+tcumple

dXt = − 1

1 + tXtdt +

1

1 + tdBt,

X0 = 0

(ii) El proceso Xt = sin Bt, con B0 = a ∈ (−π2, π

2

)es solucion de

dXt = −1

2Xtdt +

√1−X2

t dBt,

para t < T = infs > 0 : Bs /∈ [−π2, π

2

].

(iii) (X1(t), X2(t)) = (t, etBt) satisface[dX1

dX2

]=

[1

X2

]dt +

[0

eX1

]dBt

92

Page 93: Calculo estocastico

(iv) (X1(t), X2(t)) = (cosh(Bt), sinh(Bt)) satisface[dX1

dX2

]=

1

2

[X1

X2

]dt +

[X2

X1

]dBt.

(v) Xt = (cos(Bt), sin(Bt)) satisface

dXt =1

2Xtdt + XtdBt,

donde M =

[0 −11 0

]. Las componentes del proceso Xt cumplen

X1(t)2 + X2(t)

2 = 1,

y por lo tanto, Xt puede considerarse como un movimiento brow-niano en la circunferencia de radio 1.

(vi) El proceso Xt = (x1/3 + 13Bt)

3, x > 0, cumple

dXt =1

3X

1/3t dt + X

2/3t dBt.

3.2 Consideremos un movimiento browniano n-dimensional Bt y fijemos con-stantes αi, i = 1, . . . , n. Resolver la ecuacion diferencial estocastica

dXt = rXtdt + Xt

n∑

k=1

αkdBk(t).

3.3 Resolverde las ecuaciones diferenciales estocasticas siguientes:

dXt = rdt + αXtdBt, X0 = x

dXt =1

Xt

dt + αXtdBt, X0 = x > 0

dXt = Xγt dt + αXtdBt, X0 = x > 0.

Para que valores de las constantes α, γ hay explosion?

3.4 Resolver las ecuaciones diferenciales estocasticas siguientes:

(i) [dX1

dX2

]=

[1

0

]dt +

[1 00 X1

] [dB1

dB2

].

93

Page 94: Calculo estocastico

(ii) [dX1(t) = X2(t)dt + αdB1(t)dX2(t) = X1(t)dt + βdB2(t)

3.5 La ecuacion diferencial estocastica no lineal

dXt = rXt(K −Xt)dt + βXtdBt, X0 = x > 0

es utiliza como modelo para el crecimiento de una poblacion de tamanoXt, en un medio aleatorio. La constante K > 0 se denomina la capaci-dad del medio, la constante r ∈ R mide la calidad del medio y la con-stante β ∈ R es una medida del nivel de ruido del sistema. Comprobarque

Xt =exp

((rK − 1

2β2

)t + βBt

)

x−1 + r∫ t

0exp

((rK − 1

2β2

)s + βBs

)ds

es la unica solucion.

3.6 Encontrar el generador de los siguientes procesos de difusion:

a) dXt = µXtdt + σdBt, (proceso de Ornstein-Uhlenbeck) µ y r sonconstantes

b) dXt = rXtdt + αXtdBt, (movimiento browniano geometrico) α y rson constantes

c) dXt = rdt + αXtdBt, α y r son constantes

d) dYt =

[dt

dXt

]donde Xt es el proceso introducido en a)

e)

[dX1

dX2

]=

[1

X2

]dt +

[0

eX1

]dBt

f)

[dX1

dX2

]=

[10

]dt +

[1 00 X1

] [dB1

dB2

]

h) X(t) = (X1, X2, . . . .Xn), siendo

dXk(t) = rkXkdt + Xk

n∑j=1

αkjdBj, 1 ≤ k ≤ n

3.7 Encontrar un proceso de difusion cuyo generador sea:

94

Page 95: Calculo estocastico

a) Af(x) = f ′(x) + f ′′(x), f ∈ C20(R)

b) Af(x) = ∂f∂t

+ cx∂f∂x

+ 12α2x2 ∂2f

∂x2 , f ∈ C20(R2)

c) Af(x1, x2) = 2x2∂f∂x1

+ log(1 + x21 + x2

2)∂f∂x2

+ 12(1 + x2

1)∂2f∂x2

1

+x1∂2f

∂x1∂x2+ 1

2∂2f∂x2

2, f ∈ C2

0(R2)

3.8 Demostrar que la solucion u(t, x) del problema con valor inicial

∂u

∂t=

1

2β2x2∂2u

∂x2+ αx

∂u

∂x, t > 0, x ∈ R

u(0, x) = f(x), f ∈ C20(R)

puede expresarse como

u(t, x) = E

[f(x expβBt + (α− 1

2β2)t

].

4 Aplicacion del calculo estocastico a la cober-

tura y valoracion de derivados

Consideremos el modelo de Black y Scholes para la curva de precios de unactivo financiero. El precio St en un instante t viene dado por un movimientobrowniano geometrico:

St = S0eµt−σ2

2t+σBt ,

donde S0 es el precio inicial, µ es una constante que representa la tendenciaa crecer (observemos que E(St) = S0e

µt), y σ se denomina la volatilidad.Sabemos que St satisface una ecuacion diferencial estocastica lineal:

dSt = σStdBt + µStdt.

Este modelo tiene las propiedades siguientes:

a) Las trayectorias t → St son continuas.

b) Para todo s < t, el incremento relativo St−Ss

Sses independient de la σ-

algebra generada por Su, 0 ≤ u ≤ s.

95

Page 96: Calculo estocastico

c) La ley del cociente St

Sses una distribucion lognormal con parametros(

µ− σ2

2

)(t− s), σ2(t− s).

Fijemos un intervalo de tiempo [0, T ]. Una cartera de valores (o estrategiade inversion) sera un proceso estocastico

φ = (αt, βt) , 0 ≤ t ≤ Ttal que sus componentes son procesos progresivamente medibles y verifican

∫ T

0

|αt| dt < ∞,

∫ T

0

(βt)2 dt < ∞.

La componente αt representa el capital (activo financiero sin riesgo) al tipode interes r. La componente βt representa la cantidad de acciones de quedisponemos. En esta situacion el valor de la cartera en cada instante t sera

Vt(φ) = αtert + βtSt.

Diremos que la cartera φt es autofinanciada si su valor es un proceso deIto con diferencial

dVt(φ) = rαtertdt + βtdSt.

Esto significa que el incremento del valor solo depende del incremento de losprecios.

Se introducen los precios actualizados como

St = e−rtSt = S0 exp

((µ− r) t− σ2

2t + σBt

).

El valor actualizado de una cartera sera, por definicion,

Vt(φ) = e−rtVt(φ) = αt + βtSt.

Observemos que

dVt(φ) = −re−rtVt(φ)dt + e−rtdVt(φ)

= −rβtStdt + e−rtβtdSt

= βtdSt.

96

Page 97: Calculo estocastico

Se dice que un modelo es viable si existe una probabilidad equivalenterespecto de la cual los precios actualizados forman una martingala. Estacondicion es equivalente a que no haya arbitrajes (carteras autofinanciadascon valor inicial cero y tales que VT (φ) ≥ 0 y P (VT (φ) > 0) > 0). Talesprobabilidades se denominan probabilidades sin riesgo.

El teorema de Girsanov nos dice que existe una probabilidad Q respectode la cual el proceso

Wt = Bt +µ− r

σt

es una martingala. En funcion del proceso Wt los precios se escriben

St = S0 exp

(rt− σ2

2t + σWt

),

y los precios actualizados seran martingala:

St = e−rtSt = S0 exp

(−σ2

2t + σWt

),

es decir, Q sera una probabilidad sin riesgo.El valor actualizado de una cartera autofinanciada φ valdra

Vt(θ) = V0(θ) +

∫ t

0

βudSu,

y sera una martingala respecto de Q si

∫ T

0

E(β2uS

2u)du < ∞. (60)

Observemos que una tal cartera no puede ser un arbitraje ya que si su valorinicial es nulo, entonces,

EQ

(VT (θ)

)= V0(θ) = 0.

Consideremos un contrato derivado sobre el activo financiero que permitahacer un beneficio a su propietario dado por una variable aleatoria h ≥ 0,FT -medible y de cuadrado integrable respecto de Q. El tiempo T sera lafecha de vencimiento del contrato.

97

Page 98: Calculo estocastico

• En el caso de una opcion de compra europea de vencimiento T y preciode ejercicio K, tendremos

h = (ST −K)+.

• En el caso de una opcion de venta europea de vencimiento T y preciode ejercicio K, tendremos

h = (K − ST )+.

Diremos que una cartera autofinanciada φ que cunple (60) cubre el derivadosi VT (θ) = h, y se dice entonces que la variable h es replicable.

El precio del derivado en cualquier instante t ≤ T se determina como elvalor de una cartera de cobertura, suponiendo que el beneficio h es replicable.Vendra dado por la formula

Vt(θ) = EQ(e−r(T−t)h|Ft), (61)

que se deduce de la propiedad de martingala de Vt(θ) respecte de Q:

EQ(e−rT h|Ft) = EQ(VT (θ)|Ft) = Vt(θ) = e−rtVt(θ).

En particular,

V0(θ) = EQ(e−rT h).

Se dice que un modelo es completo si toda variable de cuadrado integrablerespecto de la probabilidad sin riesgo es replicable. El modelo de Black yScholes es completo, como consecuencia del teorema de representacion demartingalas:

Consideremos la martingala de cuadrado integrable

Mt = EQ

(e−rT h|Ft

).

Sabemos que existe un proceso estocastico Kt adaptado y de cuadrado inte-grable, o sea,

∫ T

0EQ(K2

s )ds < ∞, tal que

Mt = M0 +

∫ t

0

KsdWs.

98

Page 99: Calculo estocastico

Definimos la cartera autofinanciada φt = (αt, βt) por

βt =Kt

σSt

,

αt = Mt − 1

σSt.

El valor actualizado de esta cartera sera

Vt(θ) = αt + βtSt = Mt,

y, por lo tanto, su valor final sera

VT (θ) = erT VT (θ) = erT MT = h.

Consideremos el caso particular h = g(ST ). El valor del derivado en elinstante t sera

Vt = EQ

(e−r(T−t)g(ST )|Ft

)

= e−r(T−t)EQ

(g(Ste

r(T−t)eσ(WT−Wt)−σ2/2(T−t))|Ft

).

Por lo tanto,Vt = F (t, St), (62)

dondeF (t, x) = e−r(T−t)EQ

(g(xer(T−t)eσ(WT−Wt)−σ2/2(T−t))

). (63)

Bajo hipotesis muy generales sobre g (por ejemplo si es continua y deriv-able a trozos)que incluyen, en particular, las funciones

g(x) = (x−K)+,

g(x) = (K − x)+,

la funcion F (t, x) es derivable respecto de t y dos veces derivable respecto dex, con todas las derivadas parciales continuas. Supondremos que existe unafuncion F (t, x) de este tipo tal que se cumple (62). Entonces, aplicando la

99

Page 100: Calculo estocastico

formula de Ito a (62) se obtiene

Vt = V0 +

∫ t

0

σ∂F

∂x(u, Su)SudWu +

∫ t

0

r∂F

∂x(u, Su)Sudu

+

∫ t

0

∂F

∂t(u, Su)du +

1

2

∫ t

0

∂2F

∂x2(u, Su) σ2S2

udu

= V0 +

∫ t

0

σ∂F

∂x(u, Su)SudWu

+

∫ t

0

Kudu.

Por otro lado, sabemos que Vt es un proceso de Ito con representacion

Vt = V0 +

∫ t

0

σHuSudWu +

∫ t

0

rVudu.

Comparando estas dos expresiones se deduce

Ht =∂F

∂x(t, St),

rF (t, St) =∂F

∂t(t, St) +

1

2σ2S2

t

∂2F

∂x2(t, St)

+rSt∂F

∂x(t, St).

El soporte de la ley de probabilidad de la variable aleatoria St es [0,∞). Pertanto, estas igualdades nos dicen que F (t, x) satisface la ecuacion

∂F

∂t(t, x) + rx

∂F

∂x(t, x) +

1

2

∂2F

∂x2(t, x) σ2 x2 = rF (t, x), (64)

F (T, x) = g(x).

Por otra parte, la cartera recubridora sera

αt =∂F

∂x(t, St),

βt = e−rt (F (t, St)−HtSt) .

La formula (63) puede escribirse como

F (t, x) = e−r(T−t)EQ

(g(xer(T−t)eσ(WT−Wt)−σ2/2(T−t))

)

= e−rθ 1√2π

∫ ∞

−∞g(xerθ−σ2

2θ+σ

√θy)e−y2/2dy,

100

Page 101: Calculo estocastico

donde θ = T − t. En el caso particular de una opcion de compra europea deprecio de ejercicio K y vencimiento T , g(x) = (x−K)+ , se obtiene

F (t, x) =1√2π

∫ ∞

−∞e−y2/2

(xe−

σ2

2θ+σ

√θy −Ke−rθ

)+

dy

= xΦ(d+)−Ke−r(T−t)Φ(d−),

donde

d− =log x

K+

(r − σ2

2

)(T − t)

σ√

T − t,

d+ =log x

K+

(r + σ2

2

)(T − t)

σ√

T − t

Por tanto, el precio en el instante t sera

Ct = F (t, St).

La composicion de la cartera de cobertura sera

Ht =∂F

∂x(t, St) = Φ(d+).

References

[1] I. Karatzas and S. E. Schreve: Brownian Motion and Stochastic Calculus.Springer-Verlag 1991

[2] F. C. Klebaner: Introduction to Stochastic Calculus with Applications.

[3] T. Mikosh: Elementary Stochastic Calculus. World Scientific 2000.

[4] B. Øksendal: Stochastic Differential Equations. Springer-Verlag 1998

[5] D. Revuz and M. Yor: Continuous Martingales and Brownian motion.Springer-Verlag, 1994.

101