Ejercicios Econometría

download Ejercicios Econometría

of 44

description

Demostraciones econométricas

Transcript of Ejercicios Econometría

  • Solucionario de problemas de Econometra I

    Ec. Gonzalo Villa Cox M.Sc.

    *

    Sr. Freddy Garca Albn

    Mayo 2014

    1. Para estimar el modelo yi = xi + ui se propone el estimador:

    =

    ni=1

    xiyi

    2

    2 +ni=1

    x2i

    a) Pruebe que el estimador esta sesgado hacia 0.

    b) Pruebe que:

    E( )2 = 2

    2

    2 +ni=1

    x2i

    c) Pruebe que su varianza es inferior a la del estimador MCO.

    Respuesta:

    a) El sesgo del estimador se dene como: b(, ) = E() . Por lo tanto el problema consisteen demostrar que E() est entre 0 y , o lo que es lo mismo, que b(, ) sea de signo contrarioa

    Se empieza calculando

    E() = E

    ( ni=1

    xi(xi + ui)

    2

    2 +ni=1

    x2i

    )

    E() = E

    ( ni=1

    (x2i + xiui)

    2

    2 +ni=1

    x2i

    )

    E() = E

    ( ni=1

    x2i +ni=1

    xiui

    2

    2 +ni=1

    x2i

    )

    E() =1

    2

    2 +ni=1

    x2i

    E[

    ni=1

    x2i +

    ni=1

    xiui]

    E() =1

    2

    2 +ni=1

    x2i

    [

    ni=1

    x2i + E[

    ni=1

    xiui] 0

    ]

    *

    Cualquier duda o comentario escribir a [email protected].

    1

  • Esto ltimo debido a que E[xiui] = 0.

    Entonces

    E() =

    ni=1

    x2i

    2

    2 +ni=1

    x2i

    Hasta aqu ya es posible observar que el valor esperado del estimador est entre 0 y , sinembargo se calcular el sesgo:

    b(, ) =

    ni=1

    x2i

    2

    2 +ni=1

    x2i

    = [ n

    i=1

    x2i

    2

    2 +ni=1

    x2i

    1]

    Lo que est dentro del parntesis es negativo, por lo tanto el sesgo es de signo contrario a ,por lo que est sesgado hacia 0.

    b)

    E( )2 = E[ n

    i=1

    xiyi

    2

    2 +ni=1

    x2i

    ]2

    E( )2 = E[ ni=1

    xiyi 2 ni=1

    x2i

    2

    2 +ni=1

    x2i

    ]2

    E( )2 = E[ n

    i=1

    x2i +ni=1

    xiui 2 ni=1

    x2i

    2

    2 +ni=1

    x2i

    ]2

    E( )2 =E

    (ni=1

    xiui 2)2

    (2

    2 +ni=1

    x2i

    )2

    E( )2 =E

    ([ni=1

    xiui]2 22

    ni=1

    xiui + [2

    ]2

    )(2

    2 +ni=1

    x2i

    )2Obteniendo el valor esperado de cada trmino del numerador y teniendo en cuenta que E[xiui] =0, E[uiuj ] = 0 la ecuacin anterior se reduce a:

    E( )2 =2

    ni=1

    x2i + [2

    ]2

    (2

    2 +ni=1

    x2i

    )2 = 2( ni=1

    x2i +2

    2

    )(2

    2 +ni=1

    x2i

    )2

    E( )2 = 2

    2

    2 +ni=1

    x2i

    2

  • c)

    V ar() = E[ E()]2

    V ar() = E

    [ ni=1

    x2i +ni=1

    xiui

    2

    2 +ni=1

    x2i

    ni=1

    x2i

    2

    2 +ni=1

    x2i

    ]2

    V ar() = E

    [ ni=1

    x2i +ni=1

    xiui ni=1

    x2i

    2

    2 +ni=1

    x2i

    ]2

    V ar() = E

    [ ni=1

    xiui

    2

    2 +ni=1

    x2i

    ]2=

    E[ni=1

    xiui]2

    [2

    2 +ni=1

    x2i

    ]2

    V ar() =

    2ni=1

    x2i[2

    2 +ni=1

    x2i

    ]2Para probar que la varianza del estimador MCO es mayor basta con probar que la diferencia

    entre la varianza del estimador MCO y la varianza del estimador propuesto es positiva.

    V ar(MCO) V ar() = 2

    ni=1

    x2i

    2

    ni=1

    x2i[2

    2 +ni=1

    x2i

    ]2

    V ar(MCO) V ar() =2[2

    2 +ni=1

    x2i

    ]2 2

    [ ni=1

    x2i

    ]2[2

    2 +ni=1

    x2i

    ]2 ni=1

    x2i

    V ar(MCO) V ar() =2

    [[2

    2 +ni=1

    x2i

    ]2[ ni=1

    x2i

    ]2][2

    2 +ni=1

    x2i

    ]2 ni=1

    x2i

    V ar(MCO) V ar() =2

    [[2

    2

    ]2+ 2

    2

    2

    ni=1

    x2i +[ ni=1

    x2i

    ]2[ ni=1

    x2i

    ]2][2

    2 +ni=1

    x2i

    ]2 ni=1

    x2i

    V ar(MCO) V ar() =2

    [[2

    2

    ]2+ 2

    2

    2

    ni=1

    x2i

    ][2

    2 +ni=1

    x2i

    ]2 ni=1

    x2i

    > 0

    Como se puede apreciar en la expresin anterior, el numerador y denominador sern positivos,

    por lo tanto el ratio es positivo, con lo que queda demostrado que la varianza del estimador

    propuesto es menor a la varianza del estimador MCO.

    2. Con objeto de estimar el modelo de regresin lineal simple Yt = + Xt + ut se hanpropuesto los siguientes estimadores de :

    3

  • 1 =t YttXt

    4 =t ytt xt

    2 =1T

    tYtXt

    5 =1T

    iytxt

    3 =tXtYttX

    2t

    6 =t xtytt x

    2t

    donde letras minsculas indican diferencias entre los valores representados por las

    maysculas y sus respectivos promedios muestrales. Todas las sumas anteriores son

    desde t = 1 hasta t = T , donde T es el tamao muestral. Calcular la esperanza y lavarianza de cada estimador y sugerir cul de ellos debera utilizarse.

    Respuesta:

    E(1):

    E(1) = E[

    t YttXt

    ]

    E(1) = E[

    t(+ Xt + ut)tXt

    ]= E

    [ TtXt

    + +

    t uttXt

    ]

    E(1) = E[

    t(+ Xt + ut)tXt

    ]=

    TtXt

    + +

    tE(ut)

    0tXt

    V ar(1):

    V ar(1) = V ar[ T

    tXt+ +

    t uttXt

    ]=

    t V ar(ut)[tXt

    ]2V ar(1) =

    T2[tXt

    ]2E(2):

    E(2) =1

    TE[t

    YtXt

    ]=

    1

    TE[t

    (

    Xt+ +

    utXt

    )]

    E(2) =1

    TE[t

    1

    Xt+ T +

    t

    utXt

    ]

    E(2) =

    T

    t

    1

    Xt+ +

    1

    T

    t

    E(ut) 0

    Xt

    V ar(2):

    V ar(2) =1

    T 2V ar

    [t

    YtXt

    ]

    V ar(2) =1

    T 2V ar

    [t

    1

    Xt+ T +

    t

    utXt

    ]

    V ar(2) =1

    T 2

    t

    V ar(ut)

    X2t

    V ar(2) =2

    T 2

    t

    1

    X2t

    4

  • E(3):

    E(3) = E[

    tXtYttX

    2t

    ]= E

    [tXttX

    2t

    +tX

    2t

    tX2t

    +

    tXtuttX

    2t

    ]

    E(3) =tXttX

    2t

    + +

    tXtE(ut)

    0tX

    2t

    V ar(3):

    V ar(3) = V ar[tXt

    tX2t

    +tX

    2t

    tX2t

    +

    tXtuttX

    2t

    ]

    V ar(3) =

    tX

    2t V ar(ut)

    (tX

    2t )

    2=

    2tX

    2t

    E(4): No se puede obtener los momentos debido a que es una indeterminacin.

    E(5):

    E(5) =1

    TE[t

    ytxt

    ]

    E(5) =1

    TE[t

    + Xt + ut X uxt

    ]

    E(5) =1

    TE[t

    + Xt + ut X uxt

    ]

    E(5) =1

    TE[t

    (Xt X) xt

    +ut u

    xt

    ]

    E(5) =1

    TE[T +

    t

    ut uxt

    ]=

    1

    T

    [T +

    t

    E(ut u) 0

    xt

    ]E(5) =

    V ar(5):

    V ar(5) =1

    T 2V ar

    [T +

    t

    ut uxt

    ]

    V ar(5) =1

    T 2

    [t

    (V ar[ut u

    xt

    ]) + 2

    i

    t

    i

  • V ar(5) =1

    T 2

    [(2

    2

    T)t

    [ 1x2t

    ] 2

    2

    T

    i

    t

    i

  • R2 = yxyx

    (xi x)2(yi y)2 = yx

    (yi y)(xi x)

    (xi x)2

    (xi x)2(yi y)2

    R2 = yx

    (yi y)(xi x)

    (yi y)2 = yxxy

    5. Probar que la estimacin MCO del coeciente en el modelo yi = + x + ui es elinverso del estimador MCO del coeciente del modelo xi = + yi + vi slo si elcoeciente de determinacin del primer modelo(y del segundo) es igual a 1.

    Respuesta:

    Utilizando el resultado del ejercicio anterior se sabe que el coeciente de determinacin R2 puedeser escrito como:

    R2 =

    por lo tanto si es el inverso de , necesariamente el R2 debe ser 1.

    R2 = = 1

    = 1

    6. Considere los siguientes modelos:

    ln yi = 1 + 2 lnxi + ui

    ln yi = 1 + 2 lnxi + ui

    donde yi = w1yi y xi = w2xi, con las w constantes.

    a) Establezca las relaciones entre los dos conjuntos de coecientes de regresin y sus

    errores estndar.

    b) Es diferente el R2 en los dos modelos?

    Respuesta:

    a) Se dene zi y zi como:

    zi = lnxi

    zi = lnxi

    Al simplicar la siguiente expresin zi z se obtiene un resultado importante:

    zi z = lnw2 + zi ( lnw2

    n+ zi

    )= zi ziSe puede hacer el mismo ejercicio para la variable dependiente y se llegar a un resultado

    similar. Por lo tanto los coecientes de pendiente para ambos modelos sern los mismos y sus

    errores estndar tambin.

    El coeciente de intercepto del primer modelo ser:

    1

    1 = lnw1 + ln yi (lnw2 + lnxi)21 ln y

    ln yin

    7

  • 1 = lnw1 + ln yi 2 lnw2 2 lnxiComo los coecientes de pendiente son los mismos, entonces:

    1 = ln yi 2 lnx 1

    + lnw1 2 lnw2

    Al obtener la varianza:

    V ar(1) = V ar(1) + (lnw2)2V ar(2) 2 lnw2Cov(1, 2)

    V ar(1) = V ar(1) + (lnw2)2V ar(2) + 2 lnx lnw2V ar(2)

    V ar(1) = V ar(1) + ((lnw2)2 + 2 lnx lnw2)V ar(2)

    Se puede observar que el estimador del coeciente de intercepto no ser igual, adems su

    error estndar tambin sera distinto como se aprecia en la ecuacin anterior. La varianza del

    estimador 1 ser igual a la varianza del estimador 1mas una constante multiplicada por lavarianza de 2.

    b) El R2 en ambos modelos sern los mismos. Esto puede comprobarse mostrando que ln yi ln yi = ln yi ln yi o simplemente usando el resultado del ejercicio 5. Dado que los estimadoresde las pendientes son iguales en ambos modelos, el R2 ser el mismo.

    7. Suponga que las variables explicativas de un modelo de regresin lineal y = X + pueden dividirse en dos sub-matrices X1 y X2 con la propiedad que ambas son orto-gonales entre s. Demuestre que los estimadores MCO para los sub-vectores 1 y 2para los modelos parciales: {

    y = X11 + 1

    y = X22 + 2

    coinciden con los estimadores MCO para el modelo y = X + .

    Respuesta:

    El estimador MCO del modelo y = X11 + 1 es 1 = (X1X1)

    1X 1y.

    Se puede escribir y como:

    y = PXy +MXy = X11 +X22 +MXy (1)

    donde PX es la matriz que proyecta sobre el espacio columna deX yMX es la matriz que proyectasobre el complemento ortogonal del espacio columna de X.

    Si se multiplica (1) por X 1 se obtiene:

    X 1y = X1X11 +X

    1X22 +X

    1MXy

    X 1y = X1X11 +X

    1X2 O

    2 +X1MX O

    y (2)

    donde O es una matriz de ceros. La primera se debe a que X1 es ortogonal a X2, y la segundamatriz O se debe a que MXX1 = O , por lo tanto debido a la simetra de MX , se tiene queX 1MX = (MXX1)

    = (O) = O.

    Premultiplicando (2) por (X 1X1)1se obtiene:

    8

  • (X 1X1)1X1y = 1

    el cual es el estimador MCO del modelo de regresin de y1 sobre X1.

    Para demostrar que el estimador MCO de 2 es el mismo en ambos modelos se sigue el mismoprocedimiento.

    8. Suponga el siguiente modelo de regresin: yt = + 1xt1 + 2xt2 + ut, donde se tiene

    XX =

    33 0 00 40 200 20 60

    Xy =13224

    92

    uu = 150Se pide:

    a) El tamao de la muestra, la media aritmtica de x1, x2 e y.

    b) Los estimadores de , 1 y 2.

    c) La varianza estimada del estimador 2 y plantee un estadstico de prueba paratestear la hiptesis que 2 = 0.

    Respuesta:

    a) El tamao de la muestra es 33. Las medias aritmticas de x1 y x2 son iguales a 0, mientrasque la media de y es igual a 132/33 = 4.

    XX =

    n x1 x2x1 x21 x1x2x2

    x1x2

    x22

    Xy = yx1y

    x2y

    b) Usando la frmula del estimador MCO se obtienen los resultados:

    = (XX)1XY =

    40,21,6

    c) La varianza estimada del estimador es:

    V ar() = 2(XX)1 =uun 3(X

    X)1

    V ar() =

    V ar() Cov(, 1) Cov(, 2)Cov(, 1) V ar(1) Cov(1, 2)Cov(, 2) Cov(1, 2) V ar(2)

    =

    150

    30

    0,03030303 0 00 0,03 0,010 0,01 0,02

    Para realizar el test de hiptesis es necesario calcular el estadstico t:

    t =2

    V ar(2)=

    1,6

    0,1= 16

    9. Suponga que es el estimador MCO para el modelo de regresin entre un vector y yuna matriz X y c es un vector conformable cualquiera. Pruebe que la diferencia entrelas sumas de cuadrados:

    (y Xc)(y Xc) (y X)(y X) = (c )XX(c )

    9

  • Respuesta:

    Resolviendo el lado izquierdo de la ecuacin obtenemos:

    = (y cX)(y Xc) (y X)(y X)

    = yy yXc cXy + cXXc yy + yX + Xy XX

    = yXc cXy + cXXc+ yX + Xy XXSi usamos el hecho de que = (XX)1XY entonces:

    = yXc cXy + cXXc+ yX + Xy XX(XX)1 I

    Xy

    = yXc c XyXX

    +cXXc+ yX

    = (cXX yX)c (cXX yX)

    = (cXX yXXX

    )(c )

    = (c )XX(c )

    = (c )XX(c )10. Para estudiar la relacin entre 2 variables se han estimado los siguientes modelos:

    a) yi = + xi + i

    b) ln yi = + xi + i

    c) yi = + lnxi + i

    d) ln yi = + lnxi + i

    Discutir la interpretacin que tendria, en cada caso, el valor estimado para el coeciente

    .

    Respuesta:

    a) El coeciente es el cambio que se produce en y cuando x aumenta en una unidad.

    b) Si se multiplica el coeciente por 100, entonces 100 representa el cambio porcentual en yocasionada por un cambio absoluto en x.

    c) Si se divide para 100, entonces 0,01 representa el cambio absoluto en y debido a un cambiorelativo en x.

    d) El coeciente mide el cambio porcentual en y ante pequeos cambios porcentuales en x, esdecir mide la elasticidad de y con respecto a x.

    11. Utilice la siguiente regresin simple para contestar los literales justicando su respues-

    ta:

    yt = 0 + 1Xt + ut

    Para el cual se conocen los siguientes resultados:tXt = 0

    t Yt = 0

    tX

    2t = B

    t Y

    2t = E

    tXtYt = F

    10

  • a) Las estimaciones de MCO para los parmetros 0 y 1 son (en ese orden):

    1) E/F y B

    2) 0 y F/B

    3) E y B/F

    4) F/B y 0

    b) La suma de los cuadrados de los residuos es igual a:

    1) B + E2

    2) 0

    3) (B2/E) F4) E (F 2/B)Respuesta:

    a) ii) 0 y F/B

    0 = Y X1 = 0 0(1) = 0

    1 =

    t(Xt X)(Yt Y )

    t(Xt X)2=

    tXtYttX

    2t

    =F

    B

    b) iv) E (F 2/B)

    Yt = 0 + (F/B)Xtt

    u2t =t

    (Yt (F/B)Xt)2 =t

    (Y 2t 2(F/B)XtYt + (F 2/B2)X2t )

    t

    u2t =t

    Y 2t 2(F/B)t

    XtYt + (F2/B2)

    t

    X2t

    = E 2F 2/B + F 2/B= E (F 2/B)12. Sea el modelo y = X + u. Se estima por MCO y se obtienen los residuos de laregresin u = y X. Considere ahora la siguiente regresin: y = X + u+ v.a) Derive los estimadores MCO de y .

    b) Qu valores tendrn los residuos v de la regresin anterior?

    c) Calcule el R2 de la regresin.

    Respuesta:

    a) Dado que los regresores X y u son ortogonales, los estimadores de y sern los mismos delas regresiones:

    y = X + v1

    y

    y = u+ v2

    Por lo tanto:

    = (XX)1Xy

    y

    = (uu)1uy = (uu)1(MXy)y= (uu)1yMXy= (uu)1uu= 1

    11

  • b) Los residuos sern cero porque hemos incluido en los regresores la parte de y que no es explicadapor X de la regresin original.

    v = y X u = y X u = u u = 0c) Por obvias razones el R2 ser 1, debido a que el modelo se ajusta perfectamente, es decir lavariabilidad de y est explicada completamente por la variabilidad de los regresores.

    R2 = 1 vv

    (y y)(y y) = 1 0 = 1

    13. Considere el modelo de regresin

    Yi = + Xi + ui, i : ui (0, 2) y i, j : cov(ui, uj) = 0

    a) Demuestre que el estimador de MCO =i iYi, en donde i =

    1n wiX y wi =

    xii x

    2i.

    xi es la variable Xi en desviaciones con respecto a su media muestral xi = Xi X.b) Muestre que

    i i = 1 y

    i iXi = 0.

    c) Pruebe que cualquier otro estimador lineal para (de la forma (de la forma =

    i biYi) debe satisfacer tanto que

    i bi = 1 como

    i biXi = 0 para ser insesgado.

    d) Si bi = i + fi, muestre quei fi = 0 y

    i fiXi = 0.

    e) Demuestre que V ar() V ar().

    Respuesta:

    a)

    =i

    iYi =i

    (1

    n wiX)Yi =

    i

    (1

    n xi

    i x2i

    X)Yi

    =i

    yin X

    i xiYii x

    2i

    = Y X

    b) i

    i =i

    (1

    n wiX) = n

    n X

    i

    wi = 1 Xi xii x

    2i

    = 1 X 0i x

    2i

    = 1

    i

    iXi =i

    (1

    n wiX)Xi = X X

    i

    wiXi

    i

    iXi = X Xi xiXii x

    2i

    = X Xi x

    2i

    i x2i

    = X X = 0

    c) =i biYi

    E() = E(i biYi) = E[

    i bi(+ Xi + ui)]

    E() = E(i bi) + E(

    i biXi) + E(

    i biui)

    E() = i bi +

    i biXi + bi

    iE(ui)

    0

    Para que sea insesgado se tiene que cumplir E() = . Dado que es distinto de 0, entoncesse debe cumplir

    i bi = 1 y

    i biXi = 0.

    d)

    i fi =

    i(bi i) =

    i bi

    i i = 1 1 = 0

    i fiXi =i biXi

    i iXi = 0 0 = 0

    12

  • e)

    V ar() = V ar(i

    biYi) =i

    b2i2

    V ar() = 2i

    (i + fi)2 = 2[

    i

    (i)2 + 2

    i

    ifi 0

    +i

    f2i ]

    V ar() = 2i

    2i V ar()

    +2i

    f2i

    El primer trmino es la varianza del estimador MCO y el segundo trmino es algn nmero

    positivo. Por lo tanto:

    V ar() V ar()14. Dado el modelo de regresin y = X + u con u (0, 2I) y K regresores, pruebe que

    E() = + 2Kk=1

    1

    k

    donde k es una raz caracterstica de XX.

    Respuesta:

    E() = E[( + (XX)1Xu)( + (XX)1Xu)]

    E() = E[ + uX(XX)1 + (XX)1Xu+ uX(XX)1(XX)1Xu]

    E() = E[] + E[u] 0

    X(XX)1 + (XX)1XE[u]0

    +E[uX(XX)1(XX)1Xu]

    E() = + E[uX(XX)1(XX)1Xu]

    La segunda parte del lado derecho de la ecuacin anterior es una matriz de 1 1, por lo tanto esigual a su traza.

    E[uX(XX)1(XX)1Xu] = E[tr(uX(XX)1(XX)1Xu)]

    Usando las propiedades de la traza se llega facilmente a la solucin.

    E[uX(XX)1(XX)1Xu] = E[tr(X(XX)1(XX)1Xuu)]

    E[uX(XX)1(XX)1Xu] = tr(X(XX)1(XX)1XE[uu] 2I

    )

    E[uX(XX)1(XX)1Xu] = 2tr(X(XX)1(XX)1X)

    E[uX(XX)1(XX)1Xu] = 2tr((XX)1 (XX)1XX I

    )

    13

  • Dado que XX es una matrz simtrica, esta se puede descomponer espectralmente como CC

    donde C es la matriz con los vectores caractersticos correspondientes a las raices caractersticas deXX y es una matriz diagonal con las races caractersticas de XX . Usando este hecho y laspropiedades de la inversa de una matriz se obtiene:

    (XX)1 = (CC)1

    (XX)1 = (C)11C1 = C1C1

    donde

    1 =

    11

    0 00 12 0.

    .

    .

    .

    .

    .

    .

    .

    .

    .

    .

    .

    0 0 1K

    Otra vez, usando las propiedades de la traza,

    tr(C1C1) = tr(1C1C I

    ) = tr(1)

    En consecuencia la traza de 1 esk

    1ky por lo tanto:

    E() = + 2tr(1) = + 2Kk=1

    1

    k

    15. Conteste Verdadero o Falso y justique su respuesta.

    a) Las ecuaciones normales del modelo de regresin lineal mltiple implican que el

    vector de residuos MCO es ortogonal al vector de valores estimados y.

    b) Si las variables que intervienen en un modelo de regresin simple estn en des-

    viaciones con respecto a su propia media, entonces la lnea de regresin estimada

    debe pasar a travs del origen.

    Respuesta:

    a) Verdadero. Las ecuaciones normales del modelo de regresin lineal mltiple pueden escribirse

    como:

    2Xy + 2XX = 0

    Xy XX = 0

    X (y X) u

    = 0

    Se puede observar que las ecuaciones normales implican que la matriz de informacin X seaortogonal al vector de residuos u, y esto implica que el vector de residuos sea ortogonal alvector de valores estomados y.

    (X)u = 0

    Xu0

    = 0

    Esto ltimo se da porque se asume que el vector no puede ser 0.

    14

  • b) Verdadero. El modelo de regresin simple con variables en desviaciones con respecto a su propia

    media puede ser escrito como:

    i : yi = + xi + ui,donde yi y x

    i son las variables en desviaciones con respecto a su media.

    Teniendo en cuenta que la media muestral de x y y son 0. Los estimadores MCO del modeloson simplemente:

    =

    i xi yi

    i x2i

    =

    i(xi x)(yi y)

    i(xi x)2

    = y x = 0 0 = 0Como el trmino de intercepto estimado es 0, entonces la recta de regresin estimada debepasar a travs del origen.

    16. Suponga que un amigo que ignora sobre econometra bsica le pide que estime un

    modelo de regresin de la forma yi = + xi + ui armando que los errores no estncorrelacionados y que adems se distribuyen exponencialemente. Este le dice que an

    cuando los errores no siguen una distribucin normal, usted puede hacer las pruebas

    de hiptesis necesarias debido a que el tamao de la muestra es 100000.

    a) Qu supuesto no cumple para poder estimar el modelo por MCO?

    b) Muestre las consecuencias de estimar dicho modelo. (Compruebe si los estimadores

    son insesgados)

    Respuesta:

    a) No se puede estimar porque si los errores siguen una distribucin exponencial, entonces los

    errores estn restringidos a tomar valores positivos. Si todos los errores toman valores positivos

    entonces no se cumple el supuesto E(u) = 0. Formalmente, la distribucin exponencial es:

    f(ui) =1

    eui

    donde E(ui) = y no puede ser 0. De lo contrario no sera una funcin de probabilidadvlida.

    b) Los estimadores MCO son:

    = y x

    = +

    i(xi x)uii(xi x)2

    Tomando el valor esperado de :

    E() = +

    i(xi x)i(xi x)2

    E(ui)

    Dado que

    i(xi x) = 0, el estimador es insesgado.Al tomar el valor esperado del estimador :

    E() = + E[

    i uin

    ] = +

    iE(ui)

    n= +

    n

    n

    E() = +

    A pesar de que el estimador MCO de es insesgado, el estimador del intercepto es sesgado.

    15

  • 17. Para el modelo de regresin sin trmino constante yi = xi+ui pruebe que el estimadoryx es insesgado, y demuestre que la varianza es mayor que la del estimador MCO.

    Respuesta:

    E( yx

    )=

    1

    xE(

    i xi + uin

    )

    E( yx

    )=

    1

    xE(

    i(xi + ui)

    n

    )

    E( yx

    )=

    1

    x[i

    xin

    x

    +E

    (i uin

    )]

    E( yx

    )= +

    iE(ui)

    0

    xn=

    La varianza del estimador es:

    V ar( yx

    )= V ar

    (i uixn

    )=

    1

    x2n2V ar(

    i

    ui)

    V ar( yx

    )=

    1

    x2n2V ar(

    i

    ui) =2n

    x2n2=

    2

    x2n

    La varianza del estimador MCO es:

    V ar(MCO) =2i x

    2i

    Al restar la varianza del estimador MCO de la varianza de

    yx :

    V ar( yx

    ) V ar(MCO) =

    2

    x2n

    2i x

    2i

    = 2(1

    x2n 1

    i x2i

    )

    V ar( yx

    ) V ar(MCO) = 2(

    i x

    2i nx2

    nx2i x

    2i

    )

    Se sabe que

    i(xi x)2 =

    i x

    2i nx2. En consecuencia:

    V ar( yx

    ) V ar(MCO) = 2(

    i(xi x)2nx2

    i x

    2i

    )

    La expresin dentro del parntesis siempres er positiva, por lo tanto la varianza del estimador

    yxes mayor que la del estimador MCO.

    18. Reproduzca un razonamiento similar usado en la demostracin del teorema de Gauss-

    Markov para probar el siguiente resultado:

    La combinacin lineal c, donde es el estimador del MCO del parmetro , es elestimador insesgado de mmima varianza para la combinacin lineal c.

    Respuesta:

    Basta con demostrar que la diferencia entre la covarianza de c y c es mayor o igual a 0, donde es cualquier estimador lineal insesgado de , distinto del estimador MCO.

    16

  • V ar(c) V ar(c) = cV ar()c cV ar()c

    V ar(c) V ar(c) = c(V ar()c V ar()c)

    V ar(c) V ar(c) = c[V ar() V ar()]c

    Por el teorema de Gauss-Markov sabemos que el estimador MCO de es el de mnima varianzay por lo tanto la diferencia de las matrices de covarianzas es semidenida positiva. Llamemos a la

    diferencia V ar() V ar(), Z. Entonces:

    V ar(c) V ar(c) = c[Z]c

    Dado que Z es semidenida positiva, existe una matriz no-singular B tal que:

    V ar(c) V ar(c) = c[BB]c

    V ar(c) V ar(c) = (Bc)(Bc) = ww = w2

    La norma de cualquier vector es mayor o igual a 0, por lo tanto la varianza de c es menor o a lomucho igual que la varianza de c.

    19. Demuestre que el estimador MCO del vector es independiente del estimador MCOdel parmetro 2, sabiendo que el vector de errores se distribuye N(0, 2I).

    Respuesta:

    Podemos escribir como:

    = + (XX)1Xu

    y 2 como:

    2 =uMXun k

    solo depende de la parte aleatoria u a travs de (XX)1X L

    u, y 2 solo depende de la parte

    aleatoria a travs de uMXu = (MXu)MXu.

    Cov(Lu,MXu) = E(LuuMX) = LE(uu)MX

    Cov(Lu,MXu) = L2IMX =

    2LMX O

    El producto matricial LMX da como resultado la matriz nula debido a que la matrizMX proyectaal complemento ortogonal del espacio columna deX. Dado que los dos vectores son independientes,entonces se puede concluir que los dos estimadores son independientes.

    20. Considere el modelo de regresin mltiple y = X + u, en donde u N(0, 2I) y X esdeterminstica.

    a) Muestre que la condicin Xu = 0 es una condicin necesaria para obtener elestimador MCO para .

    17

  • b) Dada la distribucin del vector u demuestre que el estimador maximo verosmil coincide con solo si la condicin Xu = 0 se cumple.

    Respuesta:

    a) Las ecuaciones normales en forma matricial se pueden escribir como:

    2Xy + 2XX = 0

    Xy XX = 0

    X (y X) u

    = 0

    Por lo tanto, Xu = 0 es una condicin necesaria para obtener el estimador MCO.

    b) Dado que u N(0, 2I), se puede escribir la funcin de mxima verosimilitud en formamatricial de la siguiente manera:

    L =i

    f(ui; ) = (2pi2)(n/2) exp(uu/(22))

    lnL = n2

    ln 2pi2 122

    uu

    lnL = n2

    ln 2pi2 122

    (yX)(yX) = n2

    ln 2pi2 122

    (yyXyyX+XX)

    lnL

    =Xy2 X

    X2

    = 0

    Xy XX = 0

    X (y X) u

    = 0

    Por lo tanto, el estimador mximo verosimil y MCO de solo coinciden cuando la condicinXu se cumplen.

    21. En el modelo yi = +xi+ui con ui N(0, 2), use las condiciones de segundo orden parademostrar que los estimadores mximo verosmiles de , y 2 en realidad maximizanla funcin de mxima verosimilitud.

    Respuesta:

    Las primeras derivadas de la funcin de mxima verosimilitud son:

    lnL

    =

    1

    2

    i

    (yi xi)

    lnL

    =

    1

    2

    i

    (yi xi)xi

    lnL

    2= n

    22+

    1

    2(2)2

    i

    (yi xi)2

    Para probar la existencia de un mximo, es necesario plantear la matriz hessiana. Para esto nece-

    sitamos obtener las segundas derivadas parciales:

    18

  • 2 lnL

    2= n

    2

    2 lnL

    2=

    i x

    2i

    2

    2 lnL

    2=

    n

    2(2)2 1

    (2)3

    i

    (yi xi)2

    2 lnL

    =

    i xi2

    2 lnL

    2= 1

    (2)2

    i

    (yi xi)xi

    2 lnL

    2= 1

    2

    i

    (yi xi)

    Planteando la matriz hessiana y reemplazando el valor de los estimadores, se observa que el deter-

    minante del primer menor es negativo, ya que el estimador de la varianza siempre ser positivo..

    H =

    2 lnL2

    2 lnL

    2 lnL2

    2 lnL

    2 lnL2

    2 lnL2

    2 lnL2

    2 lnL2

    2 lnL2

    =

    n2

    i xi

    2 12

    i(yi xi)

    i xi

    2i x

    2i

    2 1

    (2)2

    i(yi xi)xi

    12

    i(yi xi) 1(2)2

    i(yi xi)xi n2(2)2

    1

    (2)3

    i(yi xi)2

    Note que una vez evaluados los estimadores en la matriz hessiana

    2 lnL2 =

    2 lnL2 = 0.

    H =

    n2

    i xi

    20

    i xi

    2i x

    2i

    20

    0 0 n2(2)2

    1(2)3

    i(ui)

    2

    El determinante del segundo menor es: n2

    i xi

    2

    i xi

    2i x

    2i

    2

    = ni x

    2i

    (2)2 1

    (2)2[i

    xi]2 =

    ni x

    2i [

    i xi]

    2

    (2)2 n2 i xi

    2

    i xi

    2i x

    2i

    2

    = n(i x

    2i nx2)

    (2)2=ni(xi x)2(2)2

    Ya que el numerador siempre ser positivo y el estimador de la varianza tambin, entonces el

    determinante del segundo menor es positivo.

    Solo falta probar que el determinante de la matriz hessiana es negativo.

    H = n2

    [i x

    2i

    2

    (n

    2(2)2 1

    (2)3

    i

    (ui)2

    )]+

    i xi

    2

    [i xi

    2

    (n

    2(2)2 1

    (2)3

    i

    (ui)2

    )]

    19

  • H = ( n2(2)3

    1(2)4

    i

    (ui)2

    )[ni

    x2i [i

    xi]2)

    ]= n

    2i(xi x)2

    2(2)3

    Facilmente se puede observar que este ltimo trmino es negativo. Por lo tanto, la matriz hessiana

    es denida negativa y en consecuencia los estimadores de , y 2 maximizan la funcin deverosimilitud.

    22. Probar que en el modelo de regresin yt = + xt + ut el contraste de hiptesis nulaHo : = 0 puede llevarse a cabo mediante un estadstico F.

    Respuesta:

    Un estadstico t con n grados de libetad, elevado al cuadrado sigue una distribucin chi-cuadradocon 1 grado de libertad en el numerador y n grados de libertad en el denominador.

    t20 =

    [ 0

    2/

    (xi x)2

    ]2

    t20 =( 0)2

    (xi x)2

    2=

    ( 0)2

    (xi x)2[u2i ]/(n 2)

    Si se multiplica la ecuacin por 2/2 entonces podemos observar que el numerador se distribuyechi-cuadrado con 1 grado de libertad.

    ( 0)2

    (xi x)22

    2(1)

    porque es simplemente una normal estandar elevada al cuadrado. Y

    [

    u2i ]/2 = (n 2)2/2 2(n2)2

    Por lo tanto se tiene en el numerador una funcin de variable aleatoria que se distribuye 2(1) y en el

    denominador una funcin de variable aleatoria que se distribuye 2(n2) dividida para n 2. Dadoesto, se tiene la forma del estadstico F . Esta sobreentendido que el numerador esta dividido para1, es decir los grados de libertad.

    t20 =( 0)2

    (xi x)2

    [u2i ]/(n 2)

    = F(1,n2)

    23. Conteste brevemente:

    a) Suponga el siguiente modelo de regresin

    yi =e1+2xi

    1 + e1+2xi

    Tal como se presenta es un modelo de regresin lineal? Si no es as, Qu truco

    usara para convertirlo en un modelo de regresin lineal? Imponga restricciones

    en la variable dependiente para que el modelo sea estimable.

    b) Suponga que los ingresos anuales y el consumo de alcohol estn determinados por

    el sistema de ecuaciones simultneas:

    log(earnings) = 0 + 1alcohol + 2educ+ u1

    2

    La demostracin se presentar ms adelante en otro ejercicio.

    20

  • alcohol = 0 + 1log(earnings) + 2educ+ 3log(price) + u2

    donde price es un ndice local de precios del alcohol, que incluye los impuestosestatales y locales. Suponga que educ y price son exgenos. Si 1, 2, 1, 2 y 3dieren todos de cero, Qu ecuacin est identicada?Cmo se podra estimar

    la ecuacin?

    Respuesta:

    a) Multiplicando ambos lados de la ecuacin por 1 + e1+2xi y resolviendo se obtiene:

    yi + yie1+2xi = e1+2xi

    yi = e1+2xi yie1+2xi

    yi = e1+2xi(1 yi)

    yi(1 yi) = e

    1+2xi

    Aplicando logaritmo natural a ambos lados:

    ln

    [yi

    (1 yi)

    ]= 1 + 2xi

    Por lo que el modelo sera de la forma:

    ln zi = 1 + 2xi + ui

    donde zi =yi

    (1yi) .La variable dependiente est restringida a ciertos valores.

    i : 0 < yi < 1

    Si yi = 1, entonces zi tiende a innito. Si 1 < yi 0 entonces ln zi no est denido.b) La ecuacin identicada es

    log(earnings) = 0 + 1alcohol + 2educ+ u1

    puesto que log(price) est excluida y aparece en la otra ecuacin. log(price) sirve como instru-mento para alcohol. La ecuacin se estima usando mnimos cuadrados en dos estapas. Primeroregresando alcohol sobre educ y log(price), y luego regresando log(earnings) sobre alcohol yeduc.

    24. Demuestre que bajo los supuestos clsicos, en el modelo yi = 0 + 1xi + ui,(n2)2

    2 =i ui

    2

    2 (n2) .Respuesta:

    Se puede escribir

    i ui

    2como uMXu, donde MX = I PX = I X(XX)1X. Dada laidempotencia deMX ,

    uMXu2

    = MX = (MX)(MX)

    donde = u N(0, I).

    21

  • Por lo tanto

    uMxu2 se distribuye chi-cuadrado con grados de libertad igual al rango deMX . Paracalcular el rango de la matrizMX se usa la propiedad de la traza y las propiedades de las matricesidempotentes. El rango de una matriz simtrica e idempotente es igual a su traza.

    rank(MX) = tr(MX) = tr(I X(XX)1X) = tr(I) n

    tr(X(XX)1X)

    Si se usa la propiedad de la traza entonces tr(X(XX)1X) = tr((XX)1XX) = tr(I), dondeesta nueva matriz identidad es de tamao k k.

    rank(MX) = n tr(I) = n kPara este caso el nmero de regresores es 2, por lo tanto el rango deMX es 2.

    25. Escoja una respuesta para cada uno de los siguientes literales (justicando su respues-

    ta):

    a) Cul de las siguientes opciones contiene solamente condiciones necesarias para que

    el estimador MCO sea un estimador insesgado para el parmetro en el modelode regresin mltiple y = X + u con k regresores:

    1) E[uu] = 2I y rank(X) = k2) u N(0, 2I)3) E[u] = 0 y rank(X) = k

    4) Ninguna de las anteriores.

    b) Cul de las siguientes condiciones debe cumplir el estimador MCO en el modelode regresin mltiple y = X+u para garantizar que sea MELI(Mejor EstimadorLinealmente Insesgado):

    1) E[] = y V ar[] = 2(XX)1

    2) Cov(, u) = 0

    3) debe ser consistente.

    4) Ninguna de las anteriores.

    Respuesta:

    a) iii. E[u] = 0 y rank(X) = k

    En el momento de obtener el valor esperado de la nica condicin necesaria para la insesgadezes que el valor esperado de u sea 0. La condicin de rango completo asegura que solo haya unestimador que minimice la suma de los cuadrados de los errores.

    E[] = + (XX)1XE[u]0

    b) i. E[] = y V ar[] = 2(XX)1

    La primera condicin asegura que el estimador sea insesgado. La segunda condicin asegura

    que el estimador sea el de mnima varianza, como se prueba con el teorema de Gauss-Markov.

    26. Conteste Verdadero o Falso y justique su respuesta.

    a) El R2 ajustado no puede disminuir si se aumenta una variable en la regresin.

    b) Para testear la presencia de un cambio estructural en el modelo lineal, la nica

    alternativa es recurrir al test de Chow.

    Respuesta:

    a) Falso. Si el poder explicativo del modelo es muy bajo al incluir un regresor ms, entonces el R2

    ajustado disminuir, incluso puede llegar a ser negativo. Precisamente por esto, se lo considera

    ms able que el R2 sin ajustar.

    22

  • b) Falso. Hay varias alternativas para testear la presencia de un cambio estructural por ejemplo

    el test de Hansen. Un inconveniente del test de Chow es la arbitrariedad al escoger el punto

    donde se sospecha que hubo un cambio estructural.

    27. Una regresin usando datos trimestrales desde 1958 hasta 1976 inclusive, di la si-

    guiente ecuacin estimada:

    y = 2,20 + 0,10x2 3,48x3 + 0,34x4

    La suma explicada de los cuadrados fu 109.6, y la suma de residuos al cuadrado,

    18.48. Cuando la ecuacin fu reestimada con tres dummies estacionales aadidas a la

    especicacin, la suma explicada al cuadrado aument a 114.8.

    Dos regresiones adicionales basadas en la especicacin original se corrieron para los

    subperiodos 1958:1 a 1968:4 y 1969:1 a 1976:4, dando las sumas de los residuos al

    cuadrado 9.32 y 7.46, respectivamente. Se pide:

    a) Hallar el valor del estadstico de prueba para testear la presencia de estacionalidad.

    b) Hallar el valor del estadsico de prueba para testear la constancia en la relacin

    estimada sobre los dos subperiodos.

    Respuesta:

    a) Para testear la presencia de estacionalidad es necesario plantear la siguiente prueba de hip-

    tesis:

    H0 : y = 1 + 2x2 + 3x3 + 4x4 + u (3)

    H1 : y = 1 + 2x2 + 3x3 + 4x4 + 5x5 + 6x6 + 7x7 + u, (4)

    donde x5, x6 y x7 representan las variables dummies estacionales.

    Tal y como se vi en clases para relaizar una prueba de hiptesis sobre varias restricciones(en

    este caso, 3) en los parmetros se plantea el estadstico F :

    F =(RSSR USSR)/rUSSR/(n k) ,

    donde RSSR es la suma de los residuos al cuadrado del modelo restringido (3), y USSR es lasuma de los residuos al cuadrado del modelo sin restringir (4). r es el nmero de restricionesy n k son los grados de libertad del modelo sin restringir.La suma de los cuadrados totales es la misma en ambas ecuaciones puesto que y no ha cam-biado. A partir de esto podemos hallar la suma de los residuos al cuadrado del modelo sin

    restringir que es el dato que falta para calcular F .

    RTSS = RESS +RSSR = 109,6 + 18,48 = 128,08

    USSR = UTSS RTSS

    UESS = 128,08 114,8 = 13,28

    El nmero de restricciones es 3 y los grados de libertad son 76 7 = 69, por lo tanto elestadstico F es:

    F =(18,48 13,28)/3

    13,28/69= 9,006

    23

  • b) Para testear la presencia de un quiebre estructural se usa el test de Chow para lo cul se

    calcula el estadstico F como sigue:

    F =(RSSR SSR1 SSR2)/k(SSR1 + SSR2)/(n 2k) ,

    donde RSSR es la suma de los residuos al cuadrado del modelo original, SSR1 es la sumade los residuos al cuadrados de la regresin para el primer periodo y SSR2 es la suma de losresiduos al cuadrado de la regresin para el segundo periodo.

    F =(18,48 9,32 7,46)/4(9,32 + 7,46)/(76 8) = 1,722

    28. Escribiendo las sumas residuales del modelo restringido y = X11 + u y sin restringiry = X11 +X22 +u como y

    M1y y yMy respectivamente, probar que y(M1M)y =uRuR uu y que en consecuencia, el estadstico y

    (M1M)y/JyMy/(nk1)sigue la distribucin

    F Jnk1.

    Respuesta:

    y(M1 M)y = y(M1y My) = yM1y yMy

    y(M1 M)y = (M1y)M1y (My)My = uRuR uuSe sabe que:

    uRuR uu = (D r)[D(XX)1D]1(D r)

    Por lo tanto si se divide para 2, el estadsticouRuRuu

    2 se distribuye 2J .

    El estimador de la varianza del error dividido para 2 se distribuye 2nk1. Como consecuencia deesto:

    y(M1 M)y/JyMy/(n k 1) F

    Jnk1

    29. Para el modelo y = X + u, donde la matriz E[uu] = 2I es conocida, derive unestadstico de prueba para la hiptesis conjunta:

    H0 : 1 = 2 = ... = k = 0

    Respuesta:

    En general, si un vector aleatorio z de tamao n 1 est normalmente distribuido con media 0 ymatriz de covarianzas , entonces la forma cuadrtica z1z se distribute 2n.Dados los supuestos, clsicos el vector N(0, 2(XX)1) y por lo tanto la forma cuadrtica

    ( )[2(XX)1]1( ) = ( )(XX)( )/2 2kes un buen estadstico de prueba para testear H0 : 1 = 2 = ... = k = 0.

    30. Suponga que el proceso generador de datos en un modelo de regresin es:

    yt = + xt + ut (5)

    donde el trmino de error cumple los supuestos clsicos y t : xt es determinstica. Sinembargo se estim por error el modelo:

    yt = + ut (6)

    24

  • a) Cul es el estimador MCO de ?

    b) Es el estimador MCO de insesgado para ? Explique.

    c) La suma de los residuos de la regresin (6) ser igual a 0?

    d) Suponga que se quiere predecir yT+1, y para esto se usa la estimacin por MCOde (6):

    yT+1 =

    Es esta prediccin insesgada? (Es decir E(yT+1 yT+1) = 0)e) Es posible que la varianza de la prediccin usando los estimadores MCO del

    verdadero modelo (5) sea mayor que la varianza de la prediccin usando el(los)

    estimador(es) del modelo mal especicado (6)? (Recuerde que se asume que en

    las dos situaciones el verdadero proceso generador de datos es (5))

    Respuesta:

    a) Si se usa la forma general del estimador MCO = (XX)1Xy, donde en este caso X esun vector de 1s, se tiene que el estimador de es:

    = (t

    1)1t

    yt =

    t ytn

    = y

    b) Para saber si es insesgado para , se reemplaza yt por el verdadero proceso generador de datos.

    =

    t ytn

    =

    t(+ xt + ut)

    n

    =n+

    t xt +

    t ut)

    n= + x+ u

    Al tomar el valor esperado:

    E() = E(+ x+ u) = + x+ E(u) 0

    E() = + x

    En consecuencia el estimador no es insesgado para .

    c) Si. Esto siempre se cumple para cualquier regresin lineal que incluya una constante, sin

    importar que el modelo este mal especicado.t

    (yt ) =t

    (yt y) = ny ny = 0

    d) Se sabe que = + x + u. Por otro lado la realizacin yT+1 es igual a + xT+1 + uT+1.El error de prediccin est dado por:

    yT+1 yT+1 = + x+ u (+ xT+1 + uT+1)

    yT+1 yT+1 = (x xT+1) + u uT+1Al tomar el valor esperado se obtiene:

    E(yT+1 yT+1) = E((x xT+1) + u uT+1) = (x xT+1) + E(u) 0

    E(uT+1) 0

    Como se puede observar, la prediccin es insesgada si y solo si = 0 o x = xT+1, pero engeneral la prediccin es sesgada. Note que si = 0 entonces el modelo (6) est bien especicado.

    25

  • e) Suponga que primero se ajusta el modelo usando (5). La prediccin de yT+1 ser:

    yT+1 = + xT+1

    mientras que el verdadero valor de yT+1 ser:

    yT+1 = + xT+1 + uT+1

    La varianza del error de prediccin es:

    V ar(yT+1 yT+1) = V ar(+ xT+1 xT+1 uT+1)

    V ar(yT+1 yT+1) = 2[1 +

    1

    T+

    xT+1 xt(xt x)2

    ](7)

    Ahora considere el caso en el que el modelo est mal especicado. Como se demostr anterior-

    mente el error de prediccin viene dado por:

    yT+1 yT+1 = (x xT+1) + u uT+1mientras que su varianza est dada por:

    V ar[yT+1 yT+1] = V ar[(x xT+1) + u uT+1]Dado que los errores no estn correlacionados la expresin anterior se simplica a:

    V ar[yT+1 yT+1] = V ar[u] + V ar[uT+1]

    V ar[yT+1 yT+1] = 2

    T+ 2 = 2(1 +

    1

    T) (8)

    Comparando (7) y (8) se puede ver que mientras xT+1 > x, la varianza de la prediccin delmodelo mal especicado ser menor que la del verdadero modelo.

    3

    31. Considere la regresin por mnimos cuadrados de y sobre k variables (una constante)X. Considere otro conjunto de regresores Z = XA, donde A es una matriz no singular.Entonces cada columna de Z es una combinacin lineal de las columnas de X. Pruebeque el vector de residuos de la regresin de y sobre Z y y sobre X, coinciden. Qurelevancia tiene esto al momento de cambiar las unidades de medida en las variables

    independientes?

    Respuesta:

    Se sabe que la matriz de proyeccin al espacio columna de X es PX = X(XX)1X. La matrizde proyeccin al espacio columna de Z es:

    PZ = Z(ZZ)1Z = XA(AXXA)1AX

    Usando las propiedades de la inversa de una matriz:

    PZ = XAA1 I

    (XX)1 (A)1A I

    X

    PZ = X(XX)1X = PX

    Esto se debe a que el subespacio generado por las columnas deX es idntico al subespacio generadopor las columnas de Z. Esto resulta bastante obvio, ya que cada columna de Z es una combinacin

    3

    El hecho de que a veces la varianza de la prediccin usando estimadores de un modelo subespecicado, sea menor que

    la varianza de la prediccin usando los estimadores del verdadero proceso generador de datos, se conoce en la literatura

    como paradoja de Stein.

    26

  • lineal de las columnas de X. Si PZ = PX entonces MZ = MX , as el vector de residuos MZyser igual aMXy.

    La importancia de esto es que al cambiar la unidad de medida de las variables explicativas no se

    altera la prediccin ni los residuos,a pesar de que el estimador si cambia.

    32. En el modelo yt = +xt+t, con E(ut) = 0, E(u2t ) =

    2t , E(ts) = 0, obtener la expresin

    analtica de los estimadores MCG y MCG, y particularizarlas a los casos:

    a) 2t = 2para todo t

    b) 2t = kxt, k dado.

    Respuesta:

    min,

    s =t

    1

    2t(yt xt)2

    Las condiciones de primer orden son:

    s

    =t

    22t

    (yt xt) = 0

    s

    =t

    2xt2t

    (yt xt) = 0

    Despejando de la primera ecuacin se obtiene:

    =

    tyt2t t xt2tt

    12t

    Reemplazando en la segunda ecuacin y despejando se obtiene:

    =

    t

    12t

    txtyt2tt yt2t t xt2t

    tx2t2t

    t

    12t(

    txt2t

    )2a) Si se reemplaza 2t por

    2, se obtiene el estimador MCO.

    =n4

    t xtyt 14

    t ytt xt

    n4

    t x

    2t 14

    (t xt

    )2 =

    t xtyt nxyt x

    2t nx2

    =

    t(xt x)(yt y)

    t(xt x)2

    El estimador una vez que se rremplaza y 2 es el estimador MCO:

    =12

    t yt 12

    t xt

    12n

    =

    t ytn

    t xtn

    = y xb) Si 2t = kxt, entonces:

    =1k2

    t

    1xt

    txtytxt 1k2

    tytxt

    txtxt

    1k2

    tx2txt

    t

    1xt 1k2

    (txtxt

    )2

    27

  • =

    t

    1xt

    t yt n

    tytxt

    t xtt

    1xt n2

    =nyt

    1xt nt ytxt

    nxt

    1xt n2

    =yt

    1xtt ytxt

    xt

    1xt n

    Al reemplazar en , y kxt en 2t se obtiene:

    =

    tytkxt[yt

    1xtt ytxt

    xt

    1xtn

    ]txtkxt

    t1kxt

    =

    tytxt[yt

    1xtt ytxt

    xt

    1xtn

    ]n

    t1xt

    =

    (xt

    1xtn)t ytxtnyt 1xt+nt ytxt

    xt

    1xtn

    t1xt

    =

    xt

    1xt

    tytxtnt ytxtnyt 1xt+nt ytxtxt

    1xtn

    t1xt

    =

    t

    1xt

    (xtytxtny)

    xt

    1xtn

    t1xt

    =xtytxt ny

    xt

    1xt n

    33. Cul de los siguientes casos puede provocar sesgo en los estimadores MCO? Justique

    su respuesta (Si o no, y por qu).

    a) Heteroscedasticidad.

    b) Omitir una variable relevante.

    c) Un coeciente de correlacin muestral de 0.95 entre 2 variables independientes

    incluidas en el modelo.

    Respuesta:

    a) No.

    E() = + (XX)1XE(u)

    Dado que u (0, 2I), entonces es insesgado:

    E() =

    b) Si. Suponga que el verdadero proceso generador de datos es:

    y = X11 + x22 + u

    y en su lugar se estima el modelo:

    y = X11 + u

    El valor esperado del estimador MCO ser:

    28

  • E(1) = E[(X1X1)

    1X1y]

    E(1) = E[(X1X1)

    1X1X11] 1

    +E[(X1X1)1X1x22] + E[(X

    1X1)

    1X1u] 0

    E(1) = 1 + (X1X1)

    1X1x22

    Por lo tanto el estimador MCO es sesgado.

    c) No. Un coeciente de correlacin muestral alto entre las variables explicativas solo eleva la

    varianza del estimador MCO.

    34. Sea el modelo yt = xt + ut, con ut NID(0, 2t ), donde 2t = 2t, y t = 1, 2, ...., T .

    a) Demuestre que el estimador MCO es insesgado y que su varianza est dada por:

    V ar(MCO) = 2

    t x

    2t t

    (t x

    2t )

    2

    b) Obtenga el estimador de MCG.

    c) Muestre que la varianza del estimador de MCG es:

    V ar(MCG) =2tx2tt

    Respuesta:

    a) El estimador MCO cuando no hay intercepto es:

    =

    t ytxtt x

    2t

    =t x

    2t +

    t utxt

    t x2t

    = +

    t utxtt x

    2t

    Y su valor esperado:

    E() = +1t x

    2t

    t

    xtE(ut) 0

    En consecuencia el estimador MCO es insesgado.

    Si se supone que los errores no estn correlacionados entonces la varianza del estimador MCO

    esta dada por:

    V ar() =1

    (t x

    2t )

    2

    t

    x2tV ar(ut) =1

    (t x

    2t )

    2

    t

    x2t2t

    V ar() =2

    (t x

    2t )

    2

    t

    x2t t

    b) Para obetener el estimador de MCG se minimiza la suma de los residuos al cuadrado, pero

    esta vez ponderada por la inversa de la parte variable de la varianza de ut.

    min

    s =t

    1

    t(yt xt)2

    La condicin de primer orden es:

    29

  • s

    = 2

    t

    ytxtt

    + 2t

    x2tt

    = 0

    Resolviendo se obtiene el estimador MCG de .

    t

    x2tt

    =t

    ytxtt

    MCG =

    tytxtt

    tx2tt

    c) El estimador MCG puede escribirse como:

    MCG =

    t

    (xt+ut)xtt

    tx2tt

    =

    tx2t+utxt

    ttx2tt

    MCG =tx2tt +

    tutxtt

    tx2tt

    = +

    tutxtt

    tx2tt

    Como los errores no estn correlacionados la varianza del estimador puede escribirse como:

    V ar(MCG) =1[tx2tt

    ]2 t

    x2tt2V ar(ut) =

    2[tx2tt

    ]2 t

    x2t t

    t2

    V ar(MCG) =2tx2tt

    35. Considere el siguiente modelo de regresin simple:

    y = + x+ u

    y sea z una variable instrumental binaria para x. Utilizar =i(yiy)(ziz)i(xix)(ziz) para de-mostrar que el estimador de variables instrumentales(IV) puede escribirse como:

    IV =y1 y0x1 x0

    donde y0 y x0 son las medias muestrales de yi y xi para aquellas observaciones con zi = 0,y donde y1 y x1 son las medias muestrales de yi y xi para aquellas observaciones conzi = 1. Este estimador, conocido como estimador de grupo fue propuesto por primeravez por Wald(1940).

    Respuesta:

    Suponga que existen k observaciones con zi = 1, por lo tanto el nmero de observaciones con zi = 0

    es n k. La medias muestrales para las observaciones con zi = 1 son y1 =i yizik y x1 =

    i xizik ,

    mientras que para zi = 0 son y0 =i yi(1zi)nk y x0 =

    i xi(1zi)nk . Entonces el estimador por grupossugerido por Wald es:

    IV =

    i yizik

    i yi(1zi)nk

    i xizik

    i xi(1zi)nk

    IV =

    (nk)i yiziki yi(1zi)k(nk)

    (nk)i xiziki xi(1zi)k(nk)

    30

  • IV =(n k)i yizi ki yi(1 zi)(n k)i xizi ki xi(1 zi)

    IV =ni yizi k

    i yizi k

    i yi + k

    i yizi

    ni xizi k

    i xizi k

    i xi + k

    i xizi

    IV =ni yizi k

    i yi

    ni xizi k

    i xi

    Multiplicando por

    nn se obtiene:

    IV =

    i yizi kyi xizi kx

    =

    i yizi y

    i zi

    i xizi xi zi

    IV =

    i(yi y)zii(xi x)zi

    =

    i(yi y)(zi z)i(xi x)(zi z)36. Dado el modelo de regresin yt = + t, donde E(t) = 0, V ar(t) =

    2xt, con xt > 0:

    a) Cul es el estimador lineal ms eciente del parmetro ? Cul es su varianza?

    b) Cul es el estimador MCO de y cul es su varianza?

    Respuesta:

    a) El estimador lineal ms eciente es el estimador de mnimos cuadrados generalizados MCG:

    min

    s =t

    1

    xt(yt )2

    Al derivar y obtener la condicin d eprimer orden se tiene que:

    s

    = 2

    t

    ytxt

    + 2t

    1

    xt= 0

    Despejando se obtiene:

    t

    1

    xt=t

    ytxt

    =

    tytxt

    t1xt

    La varianza del estimador MCG de es:

    V ar() = V ar(

    t+txt

    t1xt

    ) = V ar(

    txt

    +ttxt

    t1xt

    )

    V ar() = V ar(

    txt

    t1xt

    +

    ttxt

    t1xt

    ) = V ar(t

    1xt

    t1xt

    +

    ttxt

    t1xt

    )

    V ar() = V ar(+

    ttxt

    t1xt

    ) =1

    [t

    1xt

    ]2V ar(

    t

    txt

    )

    Bajo el supuesto de independencia de los errores, las covarianza entre los errores de todas las

    observaciones son 0.

    V ar() =1

    [t

    1xt

    ]2

    t

    V ar[txt

    ] =1

    [t

    1xt

    ]2

    t

    2xtx2t

    V ar() =2t

    1xt

    [t

    1xt

    ]2=

    2t

    1xt

    31

  • b) Tal y como se ha visto en clase, el estimador MCO de es:

    = y =

    t ytn

    =

    t +

    t t

    n=

    t

    n+

    t tn

    = +

    t tn

    Y su varianza es:

    V ar() =1

    n2

    t

    V ar(t) =2

    n2

    t

    xt

    37. Dado el modelo lineal sin trmino constante y un solo regresor:

    yi = xi + ui

    Donde E(ui) = 0, E(u2i ) =

    2i suponiendo que las varianzas cambian con el esquema

    2i = 2zi donde zi es una variable conocida.

    a) Obtenga la expresin analtica para el estimador MCG, as como su varianza.

    b) Utilice la desigualdad de Cauchy-Scwarthz para comparar la varianza del estima-

    dor obtenido en el literal anterior con el estimador MCO.

    c) Qu ocurrira si a pesar de la heteroscedasticidad se utilizase 2(XX)1 comomatriz de varianza-covarianza para el estimador MCO.

    Nota: La desigualdad de Cauchy-Schwarz garantiza que para dos variables cualquiera

    se cumple la expresin: [i viwi]

    2 [i v2i ][i w2i ].Respuesta:

    a) Si la matriz de varianzas-covarianzas de u es , entonces el estimador MCG de expresadoen forma matricial es:

    MCG = (x1x)1x1y

    y su varianza:

    V ar(MCG) = 2(x1x)1

    Teniendo en cuenta que

    =

    z1 0 0 00 z2 0 00 0.

    .

    . 0.

    .

    .

    .

    .

    .

    .

    .

    . zn1.

    .

    .

    0 0 0 0 zn

    el estimador MCG es:

    MCG =

    ixiyizi

    ix2izi

    y su varianza:

    V ar(MCG) =2ix2izi

    32

  • b) Usando la desigualdad de Cauchy-Schwarz [i viwi]

    2 [i v2i ][i w2i ], donde vi = xizi ywi = xi

    zi.

    [i

    xizixizi]

    2 [i

    x2izi

    ][i

    x2i zi]

    [i

    x2i ]2 [

    i

    x2izi

    ][i

    x2i zi]

    Al manipular la desigualdad se obtiene:

    1ix2izi

    i x

    2i zi

    [i x

    2i ]

    2

    Si se multiplica ambos lados de la inecuacin por 2 entonces:

    2ix2izi

    2i x

    2i zi

    [i x

    2i ]

    2

    var(MCG) V ar(MCO)

    38. Considere un modelo simple para estimar el efecto de tener un computador personal

    (PC) sobre el promedio de calicaciones de los estudiantes de una universidad pblica:

    GPA = 0 + 1PC + u

    Responda lo siguiente:

    a) Por qu debera estar correlacionada PC con el error u?

    b) Explicar por qu PC debe de estar correlacionada con el nivel de renta de lospadres. Es suciente esto para concluir que el nivel de renta de los padres es una

    buena variable instrumental para PC? Justique su respuesta.

    c) Supongamos que hace 4 aos, la universidad concedi becas para comprar compu-

    tadoras a aproximadamente la mitad de sus estudiantes que recin ingresan y

    que, adems los alumnos que las recibieron fueron elegidos al azar. Explique como

    podra utilizar esta informacin para construir una variable instraumental para

    PC.

    Respuesta:

    a) Porque hay otros factores en el error que posiblemente inuyan sobre el promedio de calica-

    ciones y esten correlacionados con PC. Un ejemplo es el gasto en educacin de los estudiantesque realizan sus padres. Esta variable est claramente correlacionada con PC.

    b) PC est correlacionada con el nivel de renta de los padres porque es ms probable que losestudiantes con padres de mayores ingresos tengan computadoras y los de menos ingresos no.

    Esto no es suciente para concluir que el nivel de renta de los padres es una buena variable

    instrumental ya que el nivel de ingresos de los padres puede estar correlacionado con el error.

    Por ejemplo est correlacionado con el gasto en educacin.

    c) Se puede usar una variable dummy que indique 1 si el estudiante recibi beca y 0 en casocontrario. Esta variable est claramente correlacionada con PC y dado que los estudiantes querecibieron las becas fueron escogidos al azar(la variable es exgena en el modelo), entonces no

    est correlacionada con el error.

    33

  • 39. Supongamos que queremos contrastar si las chicas que asisten a institutos femeninos

    de educacin secundaria son mejores en matemticas que las chicas que van a institutos

    mixtos. Se dispone de una muestra aleatoria de adolescentes femeninas que estudian los

    ltimos aos de la secundaria en un estado de Estados Unidos, y score es la calicacinen un determinado examen de matemticas. Sea girlhs una variable cticia que indicasi una estudiante asiste a instituto femenino, conteste:

    a) Qu otras variables se podran incluir en la ecuacin? (Debe ser posible recopilar

    datos sobre estas variables.)

    b) Escribir una ecuacin que relacione score con girlhs y las otras variables indicadasen el apartado (a).

    c) Supongamos que el apoyo y la motivacin que ofrecen los padres son factores

    no observables que se encuentran en el trmino de error del apartado (b). Es

    probable que stos estn correlacionados con girlhs? Explicar por qu.

    d) Discutir los supuestos necesarios para que el nmero de institutos femeninos en un

    radio de veinte millas de la casa de las estudiantes sea una variable instrumental

    vlida para girlhs.

    Respuesta:

    a) Se puede incluir el ingreso familiar, ya que se esperara que quienes tienen padres con me-

    jores ingresos rindan mejor en los estudios. Se puede incluir una variable proxy del nivel de

    inteligencia como el IQ. Otra variable importante que se debera incluir son las horas que la

    estudiante dedica a estudiar matemticas.

    b)

    score = + 1girlhs+ 2ing + 3IQ+ 4time+ u

    donde:

    girlhs =variable cticia que indica si una estudiante asiste a instituto femenino.

    ing =ingreso familiar.

    IQ =nivel de IQ.

    time =tiempo que la estudiante dedica a estudiar matemticas medido en horas promediosemanales.

    score =calicacin en el examen de matemticas.

    c) Si es probable que est correlacionado porque los padres que ofrecen menos apoyo y motivacin

    tienden a enviar a sus hijas a instututos femeninos. Note que tambin se puede argumentar

    lo contrario. Ms alla de la justicacin lo que se busca es encontrar un sustento terico que

    permita hacer suspuestos sobre un modelo de regresin, en especial aquellos supuestos que no

    se pueden testear.

    d) Para que sea una variable instrumental vlida debe estar correlacionada con la variable girlhs.Obviamente las dos variables estn correlacionadas. Mientras haya ms institutos femeninos

    en un radio de veinte millas de la casa, es ms probable que los padres decidas que sus hijas

    deben estudiar en institutos femeninos.

    La otra condicin necesaria es que esta variable no debe estar correlacionada con el error. En el

    error se encuentran factores no observables como el apoyo y motivacin que los padres ofrecen

    a sus hijas. Estos factores no tienen relacin alguna con el nmero de institutos femeninos que

    hay cerca de la casa. En resumen, dicha variable cumple con las dos condiciones que hacen que

    sea una variable instrumemntal vlida.

    Sea num el nmero de institutos femeninos en un radio de veinte millas de las casas de losestudiantes. Entonces:

    Cov(num, girhs) 6= 0

    Cov(num, u) = 0

    34

  • 40. Comente las siguientes armaciones:

    a) Si los errores en una regresin simple no se distribuyen de forma normal, los

    estimadores MCO dejan de ser los Mejores Estimadores Lineales (MELI), pero

    siguen siendo insesgados.

    b) Se desea realizar un estudio que tenga como variable dependiente al ahorro agre-

    gado para explicarlo por medio de las tasas de inters, en una economa. Un

    investigador an no dene los aos de anlisis para el estudio. Para procurar que

    las estimaciones de mnimos cuadrados ordinarias sean ms precisas, el investiga-

    dor debe escoger un periodo en el cual las tasas de inters hayan uctuado mucho

    o es preferible poca uctuacin?

    c) Un investigador plantea una regresin con datos anuales, desde 1981 hasta 1999,

    sobre los niveles de consumo agregados explicados por los ingresos, en cierta eco-

    noma. Analiza la siguiente relacin:

    consumo = + ingreso+ ut

    Adicionalmente conoce que el coeciente de correlacin entre las variables consumoe ingreso es igual a 0,7. Al 95 % de conanza es signicativo el coeciente de lapendiente que se estima?

    Respuesta:

    a) Falso. An cuando los errores no se distribuyan normal, los estimadores MCO siguen siendo

    los mejores estimadores linealmente insesgados. El teorema de Gauss-Markov solo requiere que

    E(ui|xi) = 0 , V ar(ui) = 2 y Cov(ui, uj) = 0.b) El investigador debe escoger un perodo en el que las tasas de inters hayan uctuado poco.

    Si utiliza el resto de perodos es probable que el modelo presente heterocedasticidad.

    c) Falso. Hace falta ms informacin para concluir algo as. Una correlacin lineal fuerte entre

    dos variables no necesariamente implica que los coecientes de la regresin entre los dos sean

    signicativos.

    41. Considere el modelo microeconmico de demanda y oferta:

    Demanda:Q = 1P + 1Z1 + u1

    Oferta:Q = 2P + 2Z2 + u2

    donde Q(= cantidad demandada u ofertada) y P (= precio). Las variables exgenas, Z1(=ingreso) y Z2(= precio de lasmaterias primas), son independientes de las perturbacionesestructurales u1 y u2. Estas perturbaciones tienen esperanza 0. En lo siguiente, respectoa la estimacin, supondremos que disponemos de una muestra de observaciones de Q,P , Z1 y Z2.

    a) Muestre que si 1 6= 0 o 2 6= 0, existe al menos una forma reducida para Q.b) Si 1 6= 0 y 2 = 0, obtener la forma reducida de P .c) Si 1 6= 0, 2 6= 0 y 1 6= 2, encuentre las formas reducidas para P y Q.Respuesta:

    a) Despejando P de la ecuacin de oferta:

    P =Q

    2 22Z2 u2

    2(9)

    Como se puede apreciar hasta ahora, es necesario que 2 6= 0 para poder despejar P , y porlo tanto que la forma reducida de Q exista. Reemplazando (9) en la ecuacin de demanda seobtiene:

    35

  • Q = 1(Q

    2 22Z2 u2

    2) + 1Z1 + u1

    Q(1 12

    ) = 1Z1 122

    Z2 1u22

    + u1

    Q =1

    (1 12 ) pi1

    Z1 12(1 12 )2

    pi2

    Z2 + 1u2(1 12 )2

    +u1

    (1 12 ) v1

    Si al principio se despeja P de la ecuacin de demanda, entonces la condicin 1 6= 0 sernecesaria.

    b) Como 2 = 0 al momento de igualar las dos ecuaciones se obtiene:

    1P + 1Z1 + u1 = 2Z2 + u2

    P =21pi3

    Z2 11pi4

    Z1 +u21 u11

    v2

    c) La forma reducida para Q es la misma que la del literal (a). La forma reducida para Pser distinta. La condicin 1 6= 2 garantiza que la forma reducida exista como se ver acontinuacin. Se pueden escribir las dos ecuaciones en forma matricial.[

    1 11 2

    ]

    B

    [QP

    ]=

    [1 00 2

    ] [Z1Z2

    ]+

    [u1u2

    ](10)

    Para que la forma reducida exista, la inversa de la matriz B tiene que existir. Si 1 = 2,entonces el determinante de la matriz es 0 y por lo tanto no tiene inversa. Usando la condicindel ejercicio la matriz inversa existe y es igual a:

    B1 =1

    1 2

    [2 11 1

    ]Premultiplicando (10) por B1 se obtiene la forma reducida:[

    QP

    ]y

    =

    [ 2112

    1212

    1122

    12

    ]

    pi

    [Z1Z2

    ] z

    +

    [ 1u212 2u112u2

    12 u112

    ]

    v

    42. Construya el estimador VI y su varianza para el vector de parmetros a partir delmodelo:

    y = X + u

    X = Z +

    Respuesta:

    Primero se regresa X sobre Z para obtener el mejor instrumento para X. Luego en la primeraecuacin se sustituye X por la prediccin de la segunda. Es decir:

    y = PZX + u

    36

  • Se obtiene el estimador de de la forma comn:

    V I = (XPZX)1XPZy

    La varianza del estimador es

    V ar() = V ar((XPZX)1XPZu)

    V ar() = (XPZX)1XPZ V ar(u) 2I

    PZX(XPZX)1

    V ar() = 2(XPZX)1XPZX(XPZX)1 I

    = 2(XPZX)1

    43. Suponga que se quiere determinar la relacin entre la cantidad que contribuye un

    empleado a su plan de pensiones en funcin de la generosidad del plan. Para ello se

    plantea el siguiente modelo:

    yi,e = 0 + 1xi,e,1 + 2xi,e,2 + 3xi,3 + ui,e

    donde yi,e es la contribucin anual del empleado e que trabaja en la empresa i, xi,e,1 esel ingreso anual de esta persona y xi,e,2 es su edad. xi,3 es la cantidad que la empresaaporta a la cuenta de un empleado por cada dlar con que ste contribuye.

    Suponga que para este modelo se cumplen los supuestos de Gauss-Markov. Sin embargo

    usted no cuenta con datos para cada empleado, pero en su lugar cuenta con datos

    promedio por empresa, asi como con el nmero de empleados por empresa. Se plantea

    el siguiente modelo para las empresas usando datos promedio:

    yi = 0 + 1xi,1 + 2xi,2 + 3xi,k + ui (11)

    donde ui = m1i

    mie ui,e es el error promedio de todos los empleados de la empresa i.Si para todo e, V ar(ui,e) =

    2y los errores no estn correlacionados entre empleados,

    conteste:

    a) Calcular V ar(ui) . Es correcto usar el estimador MCO? Por qu?

    b) Qu ponderador de la suma residual, usara para estimar el modelo por mnimos

    cuadrados ponderados y por qu? (No solo de una explicacin matemtica, sino

    tambin una breve explicacin intuitiva).

    Respuesta:

    a)

    V ar(ui) = V ar(m1i

    mie

    ui,e)

    V ar(ui) =1

    m2i

    mie

    V ar(ui,e) =1

    m2i

    mie

    2

    V ar(ui) =mim2i

    2 =2

    mi

    No es correcto usar MCO debido a que la varianza del error ser ms pequea a medida que el

    nmero de empleados aumente y por lo tanto el supuesto de homocedasticidad no se cumple.

    37

  • b) El ponderador de la suma residual que hace cumplir el supuesto de homocedasticidad es el

    nmero de empleados de la empresa. Es decir, si se multiplica el modelo (11) por

    mi, elmodelo cumple todos los supuestos necesarios para estimar por MCO.

    V ar(uim1) =

    2

    mimi =

    2

    Al hacer esto, se le est asignando ms peso a las empresas con mayor nmero de empleados.

    De esta manera se compensa la reduccin de la varianza de ui a medida que el nmero deempleados es mayor.

    4

    44. Considere un modelo para los empleados de varias empresas.

    yi,e = 0 + 1xi,e,1 + 2xi,e,2 + ..+ kxi,e,k + fi + vi,e

    donde la variable inobservada fi es un efecto de la empresa para cada empleado enuna empresa dada i. El trmino de error vi,e es especco para cada empleado e de laempresa i. El error compuesto es ui,e = fi + vi,e.

    a) Suponga que V ar(fi) = 2f , V ar(vi,e) =

    2v, y que fi y vi,e no estn correlacionadas.

    Muestre que V ar(ui,e) = 2f +

    2v; llame a esto

    2.

    b) Ahora suponga que para e 6= g, vi,e y vi,g no estn correlacionadas. Muestre queCov(ui,e, ui,g) =

    2f .

    c) Sea ui = m1i

    mie ui,e, el promedio de errores compuestos dentro de una empresa.

    mi es el nmero total de empleados de la empresa i. Muestre que V ar(ui) = 2f +

    2vmi.

    d) Analice la relevancia del inciso (c) para la estimacin por mnimos cuadrados

    ponderados empleando datos promediados a nivel de las empresas, donde el pon-

    derador empleado para la observacin i es el tamao de la rma.

    Respuesta:

    a)

    V ar(ui,e) = V ar(fi + vi,e) = V ar(fi) + V ar(vi,e)

    V ar(ui,e) = 2f +

    2v =

    2

    La varianza de ui,e es simplemente la suma de las varianzas de fi y vi,e porque estas variablesno estan correlacionadas y por ende tienen covarianza 0.

    b)

    Cov(ui,e, ui,g) = E[ui,eui,g] E[ui,e]E[ui,g]

    Cov(ui,e, ui,g) = E[(fi + vi,e)(fi + vi,g)] E[fi + vi,e]E[fi + vi,g]

    Cov(ui,e, ui,g) = E[f2i + fivi,g + fivi,e + vi,evi,g]

    [E[fi]E[fi] + E[fi]E[vi,g]

    +E[vi,e]E[vi,g] + E[fi]E[vi,e]]

    Cov(ui,e, ui,g) = E[f2i ] E[fi]E[fi] V ar(fi)

    +E[fivi,g] E[fi]E[vi,g] Cov(fi,vi,g)

    +E[fivi,e] E[fi]E[vi,e] Cov(fi,vi,e)

    +E[vi,evi,g] E[vi,e]E[vi,g] Cov(vi,e,vi,g)

    4

    Como se vi en clase, los ponderadores muchas veces se escogen arbitrariamente. Este ejercicio ilustra como algunas

    veces pueden surgir de forma natural.

    38

  • Dado es supuesto de correlacin 0 entre fi y vi,g, y correlacin 0 entre vi,e y vi,g, los ltimostres trminos del lado derecho de la ecuacin anterior son 0.

    Cov(ui,e, ui,g) = E[f2i ] E[fi]E[fi] V ar(fi)

    = 2f

    c)

    V ar(ui) = V ar(m1i

    mie

    ui,e)

    V ar(ui) =1

    m2iV ar(

    mie

    ui,e) =1

    m2i

    [mie

    V ar(ui,e) + 2e

    g

    Cov(ui,e, ui,g)]

    V ar(ui) =1

    m2i

    [mi

    2 + 2e

    (mi 1)2f]

    =1

    m2i

    [mi

    2 + 2mi2

    (mi 1)2f]

    V ar(ui) =1

    m2i

    [mi

    2f +mi

    2v +m

    2i

    2f mi2f

    ]=2fmi

    +2vmi

    + 2f 2fmi

    V ar(ui) = 2f +

    2vmi

    d) El problema de usar el tamao de la rma como ponderador es que aun as la varianza del

    nuevo error depender del tamao de la rma. La varianza del nuevo modelo ser:

    V ar(ui ) = mi2f +

    2v

    45. Proponga un estadstico para el contraste de hiptesis nula H0 : 2 = 0 en el modelo:

    yt = 1 + 2xt + ut, V ar(ut) = 2t =

    2ux

    2t

    Respuesta:

    Se estima el modelo por MCO asumiendo homocedasticidad, sin embargo la varianza del estimador

    cambia. En su lugar se construye la varianza usando el estimador de White.

    V ar() = (XX)1(

    t

    ut2(xtx

    t))

    (XX)1

    Para el caso de 2, se tiene:

    V ar(2) =

    t(xt x)ut2

    [t(xt x)2]2

    Luego se usa el estadstico t habitual pero usando la nueva varianza. Es decir:

    t =2

    t(xtx)ut2[t(xtx)2]2

    46. Considere el modelo yt = xt + ut, con 2t = k(xt)

    2, donde las variables se hallan en

    diferencias respecto a sus medias muestrales.

    a) Pruebe que el estimador de MCG de es igual al promedio muestral del cocienteytxt. Halle su varianza.

    b) Qu tipo de problemas surgiran en esta estimacin si xt = 0 para algn t? Quinferencia obtendramos del resultado?

    39

  • Respuesta:

    a) El estimador de MCG puede escribirse como:

    = (x1x)1x1y

    donde

    1 =

    1

    k(x1)20 0

    0 1k(x2)2 0.

    .

    .

    .

    .

    .

    .

    .

    .

    .

    .

    .

    0 0 0 1k(xT )2

    Resolviendo se obtiene:

    =( Tk2

    )1 1k2

    t

    ytxt

    =

    tytxt

    T

    La varianza del estimador MCG es:

    V ar() = (x1x)1 =( Tk2

    )1=k2

    T

    b) Si xt = 0 para algn t, entonces se obtendr un innito.

    47. Suponga el modelo:

    y1 = 0 + 1y2 + 2z1 + u1 (12)

    donde y2 es endgena y z1 es exgena. Se cuenta con una variable z2 que sirve comoinstrumento para y2. Al tomar la forma reducida de y2 y sustituirla en el modelo (12)se obtiene la forma reducida para y1:

    y1 = 0 + 1z1 + 2z2 + v1

    a) Obtener los coecientes j en funcin de los coecientes de la forma reducida dey2 y los j.

    b) Obtener el error de forma reducida , v1, en funcin de u1, v2 y los parmetros.

    c) Cmo estimaramos consistentemente los j?

    Respuesta:

    a) La forma reducida de y2 es:

    y2 = pi0 + pi1z1 + pi2z2 + v2 (13)

    Sustituyendo (13) en (12) se obtiene:

    y1 = 0 + 1(pi0 + pi1z1 + pi2z2 + v2) + 2z1 + u1

    y1 = 0 + 1pi0 + 1pi1z1 + 1pi2z2 + 1v2 + 2z1 + u1

    y1 = 0 + 1pi0 0

    + (1pi1 + 2) 1

    z1 + 1pi22

    z2 + 1v2 + u1 v1

    Por lo tanto, 0 = 0 + 1pi0, 1 = 1pi1 + 2 y 2 = 1pi2.

    b) Del resultado anterior se tiene que v1 = 1v2 + u1.

    40

  • c) Los j pueden estimarse por MCO debido a que las variables z1y z2 son exgenas en el modelo,sin embargo no se podr recuperar los coecientes j y pij debido a que habrn ms incgnitasque ecuaciones.

    48. Considere el modelo simple de series temporales donde la variable explicativa tiene un

    error de medida clsico:

    yt = 0 + 1x t +ut (14)

    xt = xt + et

    donde ut tiene media cero y no est correlacionado con xt y et. Solamente se observanlas variables yt y xt. Suponga que et tiene media cero y no est correlacionado con x

    t

    y que xt tiene tambin media cero (este ltimo supuesto se hace slo para simplicarel lgebra)

    a) Sustituir xt = xt et y sustituirlo en la ecuacin (14). Demostrar que el trminode error en la nueva ecuacin, digamos vt, tiene correlacin con negativa con xt si1 > 0. Qu implica esto para el estimador MCO de 1 en la regresin de yt sobrext?

    b) Adems de los supuestos anteriores, suponga que ut y et no estn correlacionadoscon todos los valores pasados de xt y e

    t ; en particular, con x

    t1 y et1. Demostrarque E(xt1vt) = 0, donde vt es el trmino de error en el modelo del apartado (a).

    c) Es probable que las variables xt y xt1 estn correlacionadas? Explicar por qu.

    d) Qu estrategia sugieren los apartados (b) y (c) para estimar consistentemente 0y 1?

    Respuesta:

    a) Al sustituir xt = xt et en (14) se obtiene:

    yt = 0 + 1xt + ut 1et vt

    Dado que xt tiene media cero la covarianza entre xt y vt puede escribirse como:

    Cov(xt, vt) = E(xtvt)

    Cov(xt, vt) = E[(xt + et)(ut 1et)]

    Cov(xt, vt) = E(xtut 1etxt + etut 1e2t )

    Cov(xt, vt) = E(xtut) 0

    1E(etxt ) 0

    +E(etut) 0

    1E(e2t )

    donde E(e2t ) es la varianza de et, y siempre ser positiva. Si 1 > 0 , entonces la covarianzay por ende la correlacin ser negativa. En consecuencia el estimador de 1 ser sesgado einconsistente.

    41

  • b)

    E(xt1vt) = E[(xt1 + et1)(ut 1et)]

    E(xt1vt) = E(xt1ut + et1ut 1etxt1 1etet1)

    E(xt1vt) = E(xt1ut) 0

    +E(et1ut) 0

    1E(etxt1) 0

    1E(etet1) 0

    E(xt1vt) = 0

    c) Al obtener la covarianza

    Cov(xt, xt1) = E(xtxt1)

    Cov(xt, xt1) = E(xtxt1 + etx

    t1 + x

    t et1 + etet1)

    Cov(xt, xt1) = E(xtxt1) + E(etx

    t1)

    0

    +E(xt et1) + E(etet1) 0

    es probable que si esten correlacionados debido a que no se conocen la correlacin entre xt yxt1, y la correlacin entre x

    t y et1.

    d) La manera de estimar consistentemente los parmetros del modelo (14) es por el mtodo

    de variables instrumentales. Un buen instrumento es xt1 debido a que Cov(xt1 xt) 6= 0 yCov(xt1 vt) = 0.

    49. Considere este modelo microeconmico de demanda y oferta de trabajo:

    Demanda: y1 = 1 + 2y2 + 3x1 + 4x2 + u1

    Oferta: y1 = 5 + 6y2 + u2

    Aqu, y1(=horas de trabajo) e y2(=salario) son las variables endgenas. Las variablesexgenas, x1(=tipo de inters) y x2(=precio de las materias primas), son independien-tes de las perturbaciones estructurales u1 y u2. Estas perturbaciones tienen esperanzacero. En lo siguiente, respecto a la estimacin, supondremos que disponemos de una

    muestra de observaciones de y1, y2, x1 y x2de tamao moderado, y que las regresioneslineales a efectuar incluyen una constante.

    a) Derive la forma reducida.

    b) Est identicada la ecuacin de oferta? Debe estimarse a partir de la regresin

    lineal mnimo-cuadrtica de y1 sobre y2? Explicar.

    c) Est identicada la ecuacin de demanda? Debe estimarse a partir de la regre-

    sin lineal mnimo-cuadrtica de y1 sobre y2, x1 y x2? Explicar.

    d) Se le pide que estime la ecuacin de oferta por mnimos cuadrados en dos estapas.

    Qu pasos seguira? Sea breve pero explcito.

    e) Se le pide que estime la ecuacin de demanda por mnimos cuadrados en dos

    estapas. Qu pasos seguira? Sea breve pero explcito.

    Respuesta:

    42

  • a) Al igualar la oferta y demanda se despeja y2.

    1 + 2y2 + 3x1 + 4x2 + u1 = 5 + 6y2 + u2

    2y2 6y2 = 5 1 3x1 4x2 + u2 u1

    (2 6)y2 = 5 1 3x1 4x2 + u2 u1Si se asume que 2 6= 6 se puede dividir ambos lados de la ecuacin anterior para 2 6.

    y2 =5 12 6

    pi1

    +3

    2 6 pi2

    x1 +4

    2 6 pi3

    x2 +u2 u12 6

    v1

    Para obtener la forma reducida de y1, se reemplaza la ecuacin anterior en la ecuacin deoferta.

    y1 = 5 + 6

    (5 12 6 +

    32 6x1 +

    42 6x2 +

    u2 u12 6

    )+ u2

    y1 = 5 +6(5 1)2 6 +

    632 6x1 +

    642 6x2 +

    6(u2 u1)2 6 + u2

    y1 =52 162 6

    pi4

    +632 6

    pi5

    x1 +642 6

    pi6

    x2 +2u2 6u12 6

    v2

    b) La ecuacin de oferta si est identicada, sin embargo no se debe estimar por mnimos cuadra-

    dos ordinarios debido a que y2 es endgena y causa un sesgo de simultaneidad en el estimador,adems de la inconsistencia.

    c) La ecuacin de demanda no est identicada, y tampoco debe estimarse por mnimos cuadrados

    ordinarios por la misma razn (el estimador es sesgado e inconsistente).

    d) Primero se regresa y2 sobre x1 y x2. Mediante una prueba de hitesis se testea si los coecientesque acompaan estas variables son signicativos. De ser as, el segundo paso es regresar y1sobre y2, donde y2 es la prediccin de la regresin de y2 sobre x1 y x2.

    e) No se puede estimar por mnimos cuadrados en dos etapas debido a que la ecuacin no est

    identicada.

    50. En el modelo lineal

    yi = xi + ui

    E(ui) = 0

    Suponga que los trminos de error no estn correlacionados, sin embargo no se cumple

    el supuesto de homocedasticidad. Suponga que la estructura de la varianza del error

    cambia en funcin de xi y adems es conocida. Muestre que el estimador de mnimoscuadrados generalizados de puede ser escrito como un estimador de variable instru-mental usando algn instrumento zi. (Encuentre una expresin para zi en funcin dexi)

    Respuesta:

    Expresando la matriz de varianzas-covarianzas de u como , el estimador de mnimos cuadradosgeneralizados es:

    43

  • MCG = (X1X)1X1y

    Al compararlo con el estimador de variable instrumental

    IV = (ZX)1Zy

    se puede notar que es necesario que Z sea igual a X1. Debido a la simetra de 1, la matrizde instrumentos Z puede ser escrita como:

    Z = 1X

    Z =

    121

    0 00 1

    22 0.

    .

    .

    .

    .

    .

    .

    .

    .

    .

    .

    .

    0 0 12n

    x11 x21 xk1x12 x22 xk2.

    .

    .

    .

    .

    .

    .

    .

    .

    .

    .

    .

    x1n x2n xkn

    Por lo tanto, el instrumento zi puede ser escrito como

    zi =( 12i

    )xi

    Referencias

    [1] Novales (1993); Econometra.

    [2] Wooldridge (2008); Introductory Econometrics: A Modern Approach.

    [3] Greene (2005); Econometric Analysis.

    [4] Gujarati & Porter (2010); Econometra.

    [5] B. Hansen (2012); Econometrics.

    [6] Johnston and Dinardo (1996); Econometric Methods.

    44