Calculo estocastico

download Calculo estocastico

of 101

  • date post

    18-Jul-2015
  • Category

    Documents

  • view

    691
  • download

    0

Embed Size (px)

Transcript of Calculo estocastico

  • Calculo estocastico

    David NualartUniversitat de Barcelona

    1

  • 1 Probabilidades y procesos estocasticos

    1.1 Conceptos basicos del calculo de probabilidades

    Recordemos en primer lugar algunas definiciones generales del calculo deprobabilidades.

    Un espacio de probabilidad es una terna (,F , P ) formada por:

    (i) Un conjunto que representa el conjunto de los posibles resultados deuna cierta experiencia aleatoria.

    (ii) Una familia F de subconjuntos de que tiene estructura de -algebra:a) Fb) Si A F , su complementario Ac tambien pertenece a Fc) A1, A2, . . . F = i=1Ai F

    (iii) Una aplicacion P : F [0, 1] que cumple:a) P () = 0, P () = 1b) Si A1, A2, . . . F son conjuntos disjuntos dos a dos (es decir, Ai Aj = si i 6= j), entonces

    P (i=1Ai) =

    i=1 P (Ai)

    Los elementos de la -algebra F se denominan sucesos y la aplicacion P sedenomina una probabilidad, de forma que tenemos la siguiente interpretacionde este modelo:

    P (F )=probabilidad de que el suceso F se realice

    Si P (F ) = 1, diremos que el suceso F ocurre con probabilidad uno, o casiseguramente.

    Las propiedades a) y b) permiten deducir algunas reglas basicas delcalculo de probabilidades:

    P (A B) = P (A) + P (B) si A B = P (Ac) = 1 P (A)

    A B = P (A) P (B).

    2

  • Ejemplo 1 Lanzamos un dado.

    = {1, 2, 3, 4, 5, 6}F = P() (F contiene todos los subconjuntos de )

    P ({i}) = 16, para i = 1, . . . , 6

    Ejemplo 2 Elegimos un numero al azar en el intervalo [0, 2]. = [0, 2], F esla -algebra de Borel (generada por los intervalos de [0, 2]). La probabilidadde cualquier intervalo [a, b] [0, 2] sera

    P ([a, b]) =b a2

    .

    Se dice que un espacio de probabilidad (,F , P ) es completo si dado unsuceso A de probabilidad cero, todos los subconjuntos de A pertenecen a la-algebra F . Un espacio de probabilidad siempre se puede completar substi-tuyendo la -algebra F por una -algebra mayor formada por los conjuntosde la forma F A, donde F F y A es un subconjunto de un conjunto deF de probabilidad cero.

    Si U es una familia de subconjuntos de , la mas pequena -algebra quecontiene a U es, por definicion,

    (U) = {G,G es una -algebra, U G} ,y se denomina la -algebra generada por U . Por ejemplo, la -algebra gen-erada por los conjuntos abiertos (o por los rectangulos) de Rn se denominala -algebra de Borel de Rn y la representaremos por BR

    n .

    Ejemplo 3 Consideremos una particion finita P = {A1, . . . , An} de . La -algebra generada por P esta formada por todas las uniones de los elementosde la particion (2n en total).

    Una variable aleatoria es una aplicacion

    X R

    X()que es F -medible, es decir, X1(B) F , para todo conjunto B de la -algebra de Borel de R.

    3

  • Una variable aleatoria determina una -algebra {X1(B), B BR

    } F que se denomina la -algebra generada por X.

    Una variable aleatoria determina una probabilidad en la -algebra deBorel BR

    definida por PX = P X1, es decir,PX(B) = P (X

    1(B)) = P ({ : X() B})La probabilidad PX se denomina la ley o distribucion de la variable X.

    Diremos que una variable aleatoria X tiene densidad de probabilidad fXsi fX(x) es una funcion positiva, medible respecto de la -algebra de Borely tal que

    P (a < X < b) =

    ba

    fX(x)dx,

    para todo a < b.Las variables discretas (que toman un conjunto finito o numerable de

    valores distintos xk) no tienen densidad y su ley esta determinada por lafuncion de probabilidad :

    pk = P (X = xk).

    Ejemplo 4 Una variable aleatoria tiene ley normal N(m,2) si

    P (a < X < b) =12pi2

    ba

    e(xm)222 dx

    para todo par de numeros reales a < b.

    Ejemplo 5 Una variable aleatoria tiene ley binomial B(n, p) si

    P (X = k) =

    (n

    k

    )pk(1 p)nk,

    para k = 0, 1, . . . , n.

    La distribucion de una variable aleatoriaX puede caracterizarse mediantesu funcion de distribucion definida como la probabilidad acumulada:

    FX(x) = P (X x) = PX ((, x])

    4

  • La funcion FX : R[0, 1] es creciente, continua por la derecha y conlmites iguales a cero en y 1 en +.

    Si la variable X tiene densidad fX , entonces,

    FX(x) =

    x

    fX(y)dy,

    y si la densidad es continua, F X(x) = fX(x).

    La esperanza matematica de una variable aleatoria X se define como laintegral de X respecto de la probabilidad P , considerada como una medidaen el espacio (,F). En particular, si X es una variable elemental que tomalos valores 1, . . . , n en los conjuntos A1, . . . , An, su esperanza valdra

    E(X) =ni=1

    iP (Ai).

    El calculo de la esperanza de una variable aleatoria se efectua integrando lafuncion x respecto de la ley de probabilidad de la variable. Es decir, si X esuna variable que tiene esperanza (o sea E(|X|)

  • Ejemplo 6 Si X es una variable aleatoria con ley normal N(0, 2) y es unnumero real,

    E(exp (X)) =12pi2

    exex2

    22 dx

    =12pi2

    e22

    2

    e(x2)2

    22 dx

    = e22

    2 .

    La varianza de una variable aleatoria X se define por

    2X = Var(X) = E((X E(X))2) = E(X2) [E(X)]2 .La varianza nos mide el grado de dispersion de los valores de la variablerespecto de su esperanza. Por ejemplo, si X es una variable con ley normalN(m,2) se tiene

    P (m 1.96 X m+ 1.96) = P (1.96 X m

    1.96)= (1.96) (1.96) = 0.95,

    donde es la funcion de distribucion de la ley N(0, 1). Es decir, la probabil-idad de que la variable X tome valores en el intervalo [m 1.96,m+1.96]es igual a 0.95.

    Diremos que X = (X1, . . . , Xn) es un vector aleatorio n-dimensional sisus componentes son variables aleatorias.

    La esperanza de un vector aleatorio n-dimensional X sera el vector

    E(X) = (E(X1), . . . , E(Xn))

    La matriz de covarianzas de un vector aleatorio n-dimensional X es, pordefinicion, la matriz X = (cov(Xi, Xj))1i,jn, donde

    cov(Xi, Xj) = E [(Xi E(Xi)) (Xj E(Xj))] .Es decir, los elementos de la diagonal de esta matriz son las varianzas de lasvariables Xj y fuera de la diagonal encontramos las covarianzas entre dosvariables Xi y Xj.

    6

  • Como en el caso de variables aleatorias se introduce la ley o distribucionde un vector aleatorio n-dimensional X como la probabilidad definida en la-algebra de Borel BR

    n por

    PX(B) = P (X1(B)) = P (X B).

    Diremos que un vector aleatorio n-dimensional X tiene una ley normalN = (m,), donde m Rn, y es una matriz simetrica y definida positiva,si

    P (ai Xi bi, i = 1, . . . , n)=

    bnan

    b1a1

    (2pi det )n2 e

    12

    Pni,j=1(ximi)(xjmj)1ij dx1 dxn.

    En tal caso, se tiene, m = E(X) y = X .Si la matrix es una matriz diagonal

    =

    21 0...

    . . ....

    0 2n

    entonces la densidad del vector X sera el producto de n densidades normalesunidimensionales:

    fX(x1, . . . , xn) =ni=1

    (12pi2i

    e (xmi)

    2

    22i

    ).

    Existen tambien leyes normales degeneradas, en las que la matriz essingular. En este caso, no existe la densidad de probabilidad, y la ley de Xqueda determinada por su funcion caracterstica:

    E(eit

    X)= exp

    (itm 1

    2tt),

    donde t Rn . En esta formula t es un vector lnea (matriz 1 n) y t es unvector columna (matriz n 1).

    Si X es un vector normal n-dimensional con ley N(m,) y A es unamatriz m n, entonces AX es un vector normal m-dimensional con leyN(Am,AA).

    7

  • Diremos que una variable tiene media de orden p 1 si E(|X|p) < .En tal caso, se define el momento de orden p de la variable aleatoria X como

    mp = E(Xp).

    El conjunto de las variables que tienen media de orden p se representa porLp(,F , P ).

    Sea X una variable aleatoria con funcion caracterstica

    X(t) = E(eitX).

    Los momentos de la variable aleatoria puede calcularse a partir de las derivadasde la funcion caracterstica en el origen

    mn =1

    in(n)X (t)|t=0.

    Recordemos algunas desigualdades importantes en el calculo de probabil-idades:

    Desigualdad de Tchebychev: Si > 0

    P (|X| > ) 1pE(|X|p).

    Desigualdad de Schwartz:E(XY )

    E(X2)E(Y 2).

    Desigualdad de Holder:E(XY ) [E(|X|p)] 1p [E(|Y |q)] 1q ,

    donde p, q > 1 y 1p+ 1

    q= 1.

    Desigualdad de Jensen: Si : R R es una funcion convexa tal que lasvariables X y (X) tienen esperanza, entonces,

    (E(X)) E((X)).En particular si (x) = |x|p, con p 1, tendremos

    |E(X)|p E(|X|p).

    8

  • Recordemos los diferentes modos de convergencia de una sucesion de vari-ables aleatorias Xn, n = 1, 2, 3, . . .:

    Convergencia casi segura: Xnc.s. X, si

    limn

    Xn() = X(),

    para todo / N , donde P (N) = 0.

    Convergencia en probabilidad: XnP X, si

    limn

    P (|Xn X| > ) = 0,

    para todo > 0.

    Convergencia en media de orden p 1: Xn Lp X, si

    limn

    E(|Xn X|p) = 0.

    Convergencia en ley: XnL X, silimn

    FXn(x) = FX(x),

    para todo punto x de continuidad de la funcion de distribucion FX .

    La convergencia en media de orden p implica la convergencia en prob-abilidad ya que, debido a la desigualdad de Tchebychev tendremos

    P (|Xn X| > ) 1pE(|Xn X|p).

    La convergencia casi segura implica la convergencia en probabilidad(esto es mas difcil de demostrar).

    La convergencia casi segura implica la convergencia en media de ordenp 1, si las variables aleatorias Xn estan acotadas por una variablealeatoria integrable Y (teorema de convergencia dominada):

    |Xn| Y, E(Y )

  • La convergencia en ley es diferente de los otros tipos de convergencia, yaque lo que nos interesa es la ley de las variables y no sus valores particulares.

    Un concept