Ejercicios econometría1

44
y i = βx i + u i ˆ β = n i=1 x i y i σ 2 β 2 + n i=1 x 2 i 0 E( ˆ β - β) 2 = σ 2 σ 2 β 2 + n i=1 x 2 i ˆ β b( ˆ β,β)= E( ˆ β) - β E( ˆ β) 0 β b( ˆ β,β) β E( ˆ β)=E n i=1 x i (βx i + u i ) σ 2 β 2 + n i=1 x 2 i ! E( ˆ β)=E n i=1 (βx 2 i + x i u i ) σ 2 β 2 + n i=1 x 2 i ! E( ˆ β)=E β n i=1 x 2 i + n i=1 x i u i σ 2 β 2 + n i=1 x 2 i ! E( ˆ β)= 1 σ 2 β 2 + n i=1 x 2 i E[ n X i=1 βx 2 i + n X i=1 x i u i ] E( ˆ β)= 1 σ 2 β 2 + n i=1 x 2 i [β n X i=1 x 2 i + E[ n X i=1 x i u i ] | {z } 0 ]

Transcript of Ejercicios econometría1

Solucionario de problemas de Econometría I

Ec. Gonzalo Villa Cox M.Sc.*

Sr. Freddy García Albán

Mayo 2014

1. Para estimar el modelo yi = βxi + ui se propone el estimador:

β =

n∑i=1

xiyi

σ2

β2 +n∑i=1

x2i

a) Pruebe que el estimador esta sesgado hacia 0.

b) Pruebe que:

E(β − β)2 =σ2

σ2

β2 +n∑i=1

x2i

c) Pruebe que su varianza es inferior a la del estimador MCO.

Respuesta:

a) El sesgo del estimador β se dene como: b(β, β) = E(β)−β . Por lo tanto el problema consiste

en demostrar que E(β) está entre 0 y β, o lo que es lo mismo, que b(β, β) sea de signo contrarioa β

Se empieza calculando

E(β) = E

( n∑i=1

xi(βxi + ui)

σ2

β2 +n∑i=1

x2i

)

E(β) = E

( n∑i=1

(βx2i + xiui)

σ2

β2 +n∑i=1

x2i

)

E(β) = E

(β n∑i=1

x2i +

n∑i=1

xiui

σ2

β2 +n∑i=1

x2i

)

E(β) =1

σ2

β2 +n∑i=1

x2i

E[

n∑i=1

βx2i +

n∑i=1

xiui]

E(β) =1

σ2

β2 +n∑i=1

x2i

n∑i=1

x2i + E[

n∑i=1

xiui]︸ ︷︷ ︸0

]

*Cualquier duda o comentario escribir a [email protected].

1

Esto último debido a que E[xiui] = 0.

Entonces

E(β) =

βn∑i=1

x2i

σ2

β2 +n∑i=1

x2i

Hasta aquí ya es posible observar que el valor esperado del estimador está entre 0 y β, sinembargo se calculará el sesgo:

b(β, β) =

βn∑i=1

x2i

σ2

β2 +n∑i=1

x2i

− β = β

[ n∑i=1

x2i

σ2

β2 +n∑i=1

x2i

− 1

]

Lo que está dentro del paréntesis es negativo, por lo tanto el sesgo es de signo contrario a β,por lo que está sesgado hacia 0.

b)

E(β − β)2 = E

[ n∑i=1

xiyi

σ2

β2 +n∑i=1

x2i

− β

]2

E(β − β)2 = E

[ n∑i=1

xiyi − σ2

β − βn∑i=1

x2i

σ2

β2 +n∑i=1

x2i

]2

E(β − β)2 = E

[β n∑i=1

x2i +

n∑i=1

xiui − σ2

β − βn∑i=1

x2i

σ2

β2 +n∑i=1

x2i

]2

E(β − β)2 =

E

(n∑i=1

xiui − σ2

β

)2

(σ2

β2 +n∑i=1

x2i

)2

E(β − β)2 =

E

([n∑i=1

xiui]2 − 2σ

2

β

n∑i=1

xiui + [σ2

β ]2)

(σ2

β2 +n∑i=1

x2i

)2

Obteniendo el valor esperado de cada término del numerador y teniendo en cuenta que E[xiui] =0, E[uiuj ] = 0 la ecuación anterior se reduce a:

E(β − β)2 =

σ2n∑i=1

x2i + [σ

2

β ]2(σ2

β2 +n∑i=1

x2i

)2 =

σ2( n∑i=1

x2i + σ2

β2

)(σ2

β2 +n∑i=1

x2i

)2

E(β − β)2 =σ2

σ2

β2 +n∑i=1

x2i

2

c)

V ar(β) = E[β − E(β)]2

V ar(β) = E

[β n∑i=1

x2i +

n∑i=1

xiui

σ2

β2 +n∑i=1

x2i

−β

n∑i=1

x2i

σ2

β2 +n∑i=1

x2i

]2

V ar(β) = E

[β n∑i=1

x2i +

n∑i=1

xiui − βn∑i=1

x2i

σ2

β2 +n∑i=1

x2i

]2

V ar(β) = E

[ n∑i=1

xiui

σ2

β2 +n∑i=1

x2i

]2

=

E[n∑i=1

xiui]2

[σ2

β2 +n∑i=1

x2i

]2

V ar(β) =

σ2n∑i=1

x2i[

σ2

β2 +n∑i=1

x2i

]2Para probar que la varianza del estimador MCO es mayor basta con probar que la diferenciaentre la varianza del estimador MCO y la varianza del estimador propuesto es positiva.

V ar(βMCO)− V ar(β) =σ2

n∑i=1

x2i

−σ2

n∑i=1

x2i[

σ2

β2 +n∑i=1

x2i

]2

V ar(βMCO)− V ar(β) =

σ2[σ2

β2 +n∑i=1

x2i

]2− σ2

[ n∑i=1

x2i

]2[σ2

β2 +n∑i=1

x2i

]2 n∑i=1

x2i

V ar(βMCO)− V ar(β) =

σ2

[[σ2

β2 +n∑i=1

x2i

]2−[ n∑i=1

x2i

]2][σ2

β2 +n∑i=1

x2i

]2 n∑i=1

x2i

V ar(βMCO)− V ar(β) =

σ2

[[σ2

β2

]2+ 2σ

2

β2

n∑i=1

x2i +

[ n∑i=1

x2i

]2−[ n∑i=1

x2i

]2][σ2

β2 +n∑i=1

x2i

]2 n∑i=1

x2i

V ar(βMCO)− V ar(β) =

σ2

[[σ2

β2

]2+ 2σ

2

β2

n∑i=1

x2i

][σ2

β2 +n∑i=1

x2i

]2 n∑i=1

x2i

> 0

Como se puede apreciar en la expresión anterior, el numerador y denominador serán positivos,por lo tanto el ratio es positivo, con lo que queda demostrado que la varianza del estimadorpropuesto es menor a la varianza del estimador MCO.

2. Con objeto de estimar el modelo de regresión lineal simple Yt = α + βXt + ut se hanpropuesto los siguientes estimadores de β:

3

β1 =∑t Yt∑tXt

β4 =∑t yt∑t xt

β2 = 1T

∑tYtXt

β5 = 1T

∑iytxt

β3 =∑tXtYt∑tX

2t

β6 =∑t xtyt∑t x

2t

donde letras minúsculas indican diferencias entre los valores representados por lasmayúsculas y sus respectivos promedios muestrales. Todas las sumas anteriores sondesde t = 1 hasta t = T , donde T es el tamaño muestral. Calcular la esperanza y lavarianza de cada estimador y sugerir cuál de ellos debería utilizarse.

Respuesta:

E(β1):

E(β1) = E[ ∑

t Yt∑tXt

]

E(β1) = E[∑

t(α+ βXt + ut)∑tXt

]= E

[ Tα∑tXt

+ β +

∑t ut∑tXt

]

E(β1) = E[∑

t(α+ βXt + ut)∑tXt

]=

Tα∑tXt

+ β +

∑tE(ut)︸ ︷︷ ︸

0∑tXt

V ar(β1):

V ar(β1) = V ar[ Tα∑

tXt+ β +

∑t ut∑tXt

]=

∑t V ar(ut)[∑tXt

]2V ar(β1) =

Tσ2[∑tXt

]2E(β2):

E(β2) =1

TE[∑t

YtXt

]=

1

TE[∑t

Xt+ β +

utXt

)]

E(β2) =1

TE[α∑t

1

Xt+ Tβ +

∑t

utXt

]

E(β2) =α

T

∑t

1

Xt+ β +

1

T

∑t

E(ut)︸ ︷︷ ︸0

Xt

V ar(β2):

V ar(β2) =1

T 2V ar

[∑t

YtXt

]

V ar(β2) =1

T 2V ar

[α∑t

1

Xt+ Tβ +

∑t

utXt

]

V ar(β2) =1

T 2

∑t

V ar(ut)

X2t

V ar(β2) =σ2

T 2

∑t

1

X2t

4

E(β3):

E(β3) = E[∑

tXtYt∑tX

2t

]= E

[α∑tXt∑tX

2t

+β∑tX

2t∑

tX2t

+

∑tXtut∑tX

2t

]

E(β3) =α∑tXt∑tX

2t

+ β +

∑tXtE(ut)︸ ︷︷ ︸

0∑tX

2t

V ar(β3):

V ar(β3) = V ar[α∑tXt∑

tX2t

+β∑tX

2t∑

tX2t

+

∑tXtut∑tX

2t

]

V ar(β3) =

∑tX

2t V ar(ut)

(∑tX

2t )2

=σ2∑tX

2t

E(β4): No se puede obtener los momentos debido a que es una indeterminación.

E(β5):

E(β5) =1

TE[∑t

ytxt

]

E(β5) =1

TE[∑t

α+ βXt + ut − α− βX − uxt

]

E(β5) =1

TE[∑t

α+ βXt + ut − α− βX − uxt

]

E(β5) =1

TE[∑t

β (Xt − X)︸ ︷︷ ︸xt

+ut − u

xt

]

E(β5) =1

TE[Tβ +

∑t

ut − uxt

]=

1

T

[Tβ +

∑t

E(ut − u)︸ ︷︷ ︸0

xt

]E(β5) = β

V ar(β5):

V ar(β5) =1

T 2V ar

[Tβ +

∑t

ut − uxt

]

V ar(β5) =1

T 2

[∑t

(V ar[ut − u

xt

]) + 2

∑i

∑t

i<t

1

xi

1

xtCov(ui − u, ut − u)︸ ︷︷ ︸

−σ2T

]

=1

T 2

[∑t

[V ar(ut − u)

x2t

]− 2σ2

T

∑i

∑t

i<t

1

xi

1

xt

]

V ar(β5) =1

T 2

[∑t

[V ar(ut) + V ar(u)− 2Cov(ut, u)

x2t

]− 2σ2

T

∑i

∑t

i<t

1

xi

1

xt

]

V ar(β5) =1

T 2

[∑t

[σ2 + σ2

T − 2σ2

T

x2t

]− 2σ2

T

∑i

∑t

i<t

1

xi

1

xt

]

5

V ar(β5) =1

T 2

[(σ2 − σ2

T)∑t

[ 1

x2t

]− 2σ2

T

∑i

∑t

i<t

1

xi

1

xt

]

Los momentos de β6 son conocidos, debido a que es el estimador de mínimos cuadrados ordinarios.

E(β6) = β V ar(β6) = σ2∑t x

2t

Una propiedad deseable de un estimador es que sea insesgado, así que se seleccionará entre losestimadores insesgados. Si se comparan las varianzas de los dos estimadores insesgados β6 y β5 sepuede observar que la varianza de β6 es menor que la de β5. Esto también se sabe gracias al teoremade Gauss-Markov.

3. Considere los siguientes modelos:

yi = β1 + β2xi + ui

y∗i = α1 + α2x∗i + ui

donde y∗ y x∗son variables estandarizadas. Demuestre que α2 = β2

(SxSy

), donde Sx y Sy

son las desviaciones estándar muestrales de x y y respectivamente.

Respuesta:

α2 =

∑y∗i x∗i∑

(x∗i )2

=

∑(yi−y)(xi−x)

SySx∑(xi−x)2

S2x

α2 =

∑(yi − y)(xi − x)∑

(xi − x)2

SxSy

= β2

(SxSy

)Este resultado muestra que a pesar de que los coecientes de pendiente son independientes de uncambio en el origen, no lo son de un cambio de escala.

4. Sean βyx y βxy las pendientes de la regresión de y sobre x y de x sobre y, respectiva-mente. Demuestre que:

βyxβxy = R2

donde R2 es el coeciente de determinación de la regresión de y sobre x, o el cuadradodel coeciente de correlación muestral entre y y x.

Respuesta:

Se sabe que el R2 puede ser escrito como:

R2 =

∑(yi − y)2∑(yi − y)2

=

∑(α+ βxi − y)2∑

(yi − y)2

R2 =

∑(y − βx+ βxi − y)2∑

(yi − y)2

R2 =

∑(βxi − βx)2∑

(yi − y)2=

∑(β(xi − x))2∑

(yi − y)2

R2 = β2yx

∑(xi − x)2∑(yi − y)2

Haciendo algunas manipulaciones algebráicas se llega a la expresión βyxβxy:

6

R2 = βyxβyx

∑(xi − x)2∑(yi − y)2

= βyx

∑(yi − y)(xi − x)∑

(xi − x)2×∑

(xi − x)2∑(yi − y)2

R2 = βyx

∑(yi − y)(xi − x)∑

(yi − y)2= βyxβxy

5. Probar que la estimación MCO del coeciente β en el modelo yi = α + βx + ui es elinverso del estimador MCO del coeciente δ del modelo xi = γ + δyi + vi sólo si elcoeciente de determinación del primer modelo(y del segundo) es igual a 1.

Respuesta:

Utilizando el resultado del ejercicio anterior se sabe que el coeciente de determinación R2 puedeser escrito como:

R2 = βδ

por lo tanto si δ es el inverso de β, necesariamente el R2 debe ser 1.

R2 = βδ = β1

β= 1

6. Considere los siguientes modelos:

ln y∗i = α1 + α2 lnx∗i + ui

ln yi = β1 + β2 lnxi + ui

donde y∗i = w1yi y x∗i = w2xi, con las w constantes.

a) Establezca las relaciones entre los dos conjuntos de coecientes de regresión y suserrores estándar.

b) ¾Es diferente el R2 en los dos modelos?

Respuesta:

a) Se dene zi y z∗i como:

zi = lnxi

z∗i = lnx∗i

Al simplicar la siguiente expresión z∗i − z∗ se obtiene un resultado importante:

z∗i − z∗ = lnw2 + zi −(∑ lnw2

n+ zi

)= zi − zi

Se puede hacer el mismo ejercicio para la variable dependiente y se llegará a un resultadosimilar. Por lo tanto los coecientes de pendiente para ambos modelos serán los mismos y suserrores estándar también.

El coeciente de intercepto del primer modelo será:1

α1 = lnw1 + ¯ln yi − (lnw2 + ¯lnxi)α2

1 ¯ln y ≡∑

ln yin

7

α1 = lnw1 + ¯ln yi − α2 lnw2 − α2¯lnxi

Como los coecientes de pendiente son los mismos, entonces:

α1 = ¯ln yi − β2¯lnx︸ ︷︷ ︸

β1

+ lnw1 − β2 lnw2

Al obtener la varianza:

V ar(α1) = V ar(β1) + (lnw2)2V ar(β2)− 2 lnw2Cov(β1, β2)

V ar(α1) = V ar(β1) + (lnw2)2V ar(β2) + 2 ¯lnx lnw2V ar(β2)

V ar(α1) = V ar(β1) + ((lnw2)2 + 2 ¯lnx lnw2)V ar(β2)

Se puede observar que el estimador del coeciente de intercepto no será igual, además suerror estándar también sera distinto como se aprecia en la ecuación anterior. La varianza delestimador α1 será igual a la varianza del estimador β1mas una constante multiplicada por lavarianza de β2.

b) El R2 en ambos modelos serán los mismos. Esto puede comprobarse mostrando que ˆln y∗i −¯ln y∗i = ˆln yi− ¯ln yi o simplemente usando el resultado del ejercicio 5. Dado que los estimadores

de las pendientes son iguales en ambos modelos, el R2 será el mismo.

7. Suponga que las variables explicativas de un modelo de regresión lineal y = Xβ + µpueden dividirse en dos sub-matrices X1 y X2 con la propiedad que ambas son orto-gonales entre sí. Demuestre que los estimadores MCO para los sub-vectores β1 y β2

para los modelos parciales: y = X1β1 + µ1

y = X2β2 + µ2

coinciden con los estimadores MCO para el modelo y = Xβ + µ.

Respuesta:

El estimador MCO del modelo y = X1β1 + µ1 es β1 = (X ′1X1)−1X ′1y.

Se puede escribir y como:

y = PXy +MXy = X1β1 +X2β2 +MXy (1)

donde PX es la matriz que proyecta sobre el espacio columna deX yMX es la matriz que proyectasobre el complemento ortogonal del espacio columna de X.

Si se multiplica (1) por X ′1 se obtiene:

X ′1y = X ′1X1β1 +X ′1X2β2 +X ′1MXy

X ′1y = X ′1X1β1 +X ′1X2︸ ︷︷ ︸O

β2 +X ′1MX︸ ︷︷ ︸O

y (2)

donde O es una matriz de ceros. La primera se debe a que X1 es ortogonal a X2, y la segundamatriz O se debe a que MXX1 = O , por lo tanto debido a la simetría de MX , se tiene queX ′1MX = (MXX1)′ = (O)′ = O.

Premultiplicando (2) por (X ′1X1)−1 se obtiene:

8

(X ′1X1)−1X′1y = β1

el cual es el estimador MCO del modelo de regresión de y1 sobre X1.

Para demostrar que el estimador MCO de β2 es el mismo en ambos modelos se sigue el mismoprocedimiento.

8. Suponga el siguiente modelo de regresión: yt = α+ β1xt1 + β2xt2 + ut, donde se tiene

X′X =

33 0 00 40 200 20 60

X′y =

1322492

u′u = 150

Se pide:

a) El tamaño de la muestra, la media aritmética de x1, x2 e y.

b) Los estimadores de α, β1 y β2.

c) La varianza estimada del estimador β2 y plantee un estadístico de prueba paratestear la hipótesis que β2 = 0.

Respuesta:

a) El tamaño de la muestra es 33. Las medias aritméticas de x1 y x2 son iguales a 0, mientrasque la media de y es igual a 132/33 = 4.

X′X =

n∑x1

∑x2∑

x1

∑x2

1

∑x1x2∑

x2

∑x1x2

∑x2

2

X′y =

∑ y∑x1y∑x2y

b) Usando la fórmula del estimador MCO se obtienen los resultados:

β = (X′X)−1X′Y =

4−0,21,6

c) La varianza estimada del estimador β es:

V ar(β) = σ2(X′X)−1 =u′u

n− 3(X′X)−1

V ar(β) =

V ar(α) Cov(α, β1) Cov(α, β2)

Cov(α, β1) V ar(β1) Cov(β1, β2)

Cov(α, β2) Cov(β1, β2) V ar(β2)

=

150

30

0,03030303 0 00 0,03 −0,010 −0,01 0,02

Para realizar el test de hipótesis es necesario calcular el estadístico t:

t =β2√

V ar(β2)=

1,6

0,1= 16

9. Suponga que β es el estimador MCO para el modelo de regresión entre un vector y yuna matriz X y c es un vector conformable cualquiera. Pruebe que la diferencia entrelas sumas de cuadrados:

(y −Xc)′(y −Xc) − (y −Xβ)′(y −Xβ) = (c− β)′X′X(c− β)

9

Respuesta:

Resolviendo el lado izquierdo de la ecuación obtenemos:

= (y′ − c′X′)(y −Xc)− (y′ − β′X′)(y −Xβ)

= y′y − y′Xc− c′X′y + c′X′Xc− y′y + y′Xβ + β′X′y − β′X′Xβ

= −y′Xc− c′X′y + c′X′Xc+ y′Xβ + β′X′y − β′X′Xβ

Si usamos el hecho de que β = (X′X)−1X′Y entonces:

= −y′Xc− c′X′y + c′X′Xc+ y′Xβ + β′X′y − β′X′X(X′X)−1︸ ︷︷ ︸I

X′y

= −y′Xc− c′ X′y︸︷︷︸X′Xβ

+c′X′Xc+ y′Xβ

= (c′X′X − y′X)c− (c′X′X − y′X)β

= (c′X′X− y′X︸︷︷︸β′X′X

)(c− β)

= (c′ − β′)X′X(c− β)

= (c− β)′X′X(c− β)

10. Para estudiar la relación entre 2 variables se han estimado los siguientes modelos:

a) yi = α+ βxi + µi

b) ln yi = α+ βxi + µi

c) yi = α+ β lnxi + µi

d) ln yi = α+ β lnxi + µi

Discutir la interpretación que tendria, en cada caso, el valor estimado para el coecienteβ.

Respuesta:

a) El coeciente β es el cambio que se produce en y cuando x aumenta en una unidad.

b) Si se multiplica el coeciente β por 100, entonces 100β representa el cambio porcentual en yocasionada por un cambio absoluto en x.

c) Si se divide β para 100, entonces 0,01β representa el cambio absoluto en y debido a un cambiorelativo en x.

d) El coeciente β mide el cambio porcentual en y ante pequeños cambios porcentuales en x, esdecir mide la elasticidad de y con respecto a x.

11. Utilice la siguiente regresión simple para contestar los literales justicando su respues-ta:

yt = β0 + β1Xt + ut

Para el cual se conocen los siguientes resultados:∑tXt = 0

∑t Yt = 0

∑tX

2t = B

∑t Y

2t = E

∑tXtYt = F

10

a) Las estimaciones de MCO para los parámetros β0 y β1 son (en ese orden):

1) E/F y B

2) 0 y F/B

3) E y B/F

4) F/B y 0

b) La suma de los cuadrados de los residuos es igual a:

1) B + E2

2) 0

3) (B2/E)− F4) E − (F 2/B)

Respuesta:

a) ii) 0 y F/B

β0 = Y − Xβ1 = 0− 0(β1) = 0

β1 =

∑t(Xt − X)(Yt − Y )∑

t(Xt − X)2=

∑tXtYt∑tX

2t

=F

B

b) iv) E − (F 2/B)

Yt = 0 + (F/B)Xt∑t

u2t =

∑t

(Yt − (F/B)Xt)2 =

∑t

(Y 2t − 2(F/B)XtYt + (F 2/B2)X2

t )

∑t

u2t =

∑t

Y 2t − 2(F/B)

∑t

XtYt + (F 2/B2)∑t

X2t

= E − 2F 2/B + F 2/B

= E − (F 2/B)

12. Sea el modelo y = Xβ + u. Se estima β por MCO y se obtienen los residuos de laregresión u = y −Xβ. Considere ahora la siguiente regresión: y = Xγ + δu+ v.

a) Derive los estimadores MCO de γ y δ.

b) ¾Qué valores tendrán los residuos v de la regresión anterior?

c) Calcule el R2 de la regresión.

Respuesta:

a) Dado que los regresores X y u son ortogonales, los estimadores de γ y δ serán los mismos delas regresiones:

y = Xγ + v1

yy = δu+ v2

Por lo tanto:

γ = (X′X)−1X′y

y

δ = (u′u)−1u′y = (u′u)−1(MXy)′y

= (u′u)−1y′MXy

= (u′u)−1u′u

= 1

11

b) Los residuos serán cero porque hemos incluido en los regresores la parte de y que no es explicadapor X de la regresión original.

v = y −Xγ − δu = y −Xβ − u = u− u = 0

c) Por obvias razones el R2 será 1, debido a que el modelo se ajusta perfectamente, es decir lavariabilidad de y está explicada completamente por la variabilidad de los regresores.

R2 = 1− v′v

(y − y)′(y − y)= 1− 0 = 1

13. Considere el modelo de regresión

Yi = α+ βXi + ui, ∀i : ui ∼ (0, σ2) y ∀i, j : cov(ui, uj) = 0

a) Demuestre que el estimador de MCO α =∑i λiYi, en donde λi = 1

n − wiX y wi =xi∑i x

2i.

xi es la variable Xi en desviaciones con respecto a su media muestral xi = Xi − X.b) Muestre que

∑i λi = 1 y

∑i λiXi = 0.

c) Pruebe que cualquier otro estimador lineal para α(de la forma α(de la formaα =

∑i biYi) debe satisfacer tanto que

∑i bi = 1 como

∑i biXi = 0 para ser insesgado.

d) Si bi = λi + fi, muestre que∑i fi = 0 y

∑i fiXi = 0.

e) Demuestre que V ar(α) ≥ V ar(α).

Respuesta:

a)

α =∑i

λiYi =∑i

(1

n− wiX)Yi =

∑i

(1

n− xi∑

i x2i

X)Yi

α =∑i

yin− X

∑i xiYi∑i x

2i

= Y − Xβ

b) ∑i

λi =∑i

(1

n− wiX) =

n

n− X

∑i

wi = 1− X∑i xi∑i x

2i

= 1− X 0∑i x

2i

= 1

∑i

λiXi =∑i

(1

n− wiX)Xi = X − X

∑i

wiXi

∑i

λiXi = X − X∑i xiXi∑i x

2i

= X − X∑i x

2i∑

i x2i

= X − X = 0

c) α =∑i biYi

E(α) = E(∑i biYi) = E[

∑i bi(α+ βXi + ui)]

E(α) = E(α∑i bi) + E(β

∑i biXi) + E(

∑i biui)

E(α) = α∑i bi + β

∑i biXi + bi

∑iE(ui)︸ ︷︷ ︸

0

Para que α sea insesgado se tiene que cumplir E(α) = α. Dado que β es distinto de 0, entoncesse debe cumplir

∑i bi = 1 y

∑i biXi = 0.

d)∑i fi =

∑i(bi − λi) =

∑i bi −

∑i λi = 1− 1 = 0∑

i fiXi =∑i biXi −

∑i λiXi = 0− 0 = 0

12

e)

V ar(α) = V ar(∑i

biYi) =∑i

b2iσ2

V ar(α) = σ2∑i

(λi + fi)2 = σ2[

∑i

(λi)2 + 2

∑i

λifi︸ ︷︷ ︸0

+∑i

f2i ]

V ar(α) = σ2∑i

λ2i︸ ︷︷ ︸

V ar(α)

+σ2∑i

f2i

El primer término es la varianza del estimador MCO y el segundo término es algún númeropositivo. Por lo tanto:

V ar(α) ≥ V ar(α)

14. Dado el modelo de regresión y = Xβ + u con u ∼ (0, σ2I) y K regresores, pruebe que

E(β′β) = β′β + σ2K∑k=1

1

λk

donde λk es una raíz característica de X′X.

Respuesta:

E(β′β) = E[(β + (X′X)−1X′u)′(β + (X′X)−1X′u)]

E(β′β) = E[β′β + u′X(X′X)−1β + β′(X′X)−1X′u+ u′X(X′X)−1(X′X)−1X′u]

E(β′β) = E[β′β] + E[u′]︸ ︷︷ ︸0

X(X′X)−1β + β′(X′X)−1X′E[u]︸︷︷︸0

+E[u′X(X′X)−1(X′X)−1X′u]

E(β′β) = β′β + E[u′X(X′X)−1(X′X)−1X′u]

La segunda parte del lado derecho de la ecuación anterior es una matriz de 1 × 1, por lo tanto esigual a su traza.

E[u′X(X′X)−1(X′X)−1X′u] = E[tr(u′X(X′X)−1(X′X)−1X′u)]

Usando las propiedades de la traza se llega facilmente a la solución.

E[u′X(X′X)−1(X′X)−1X′u] = E[tr(X(X′X)−1(X′X)−1X′uu′)]

E[u′X(X′X)−1(X′X)−1X′u] = tr(X(X′X)−1(X′X)−1X′E[uu′]︸ ︷︷ ︸σ2I

)

E[u′X(X′X)−1(X′X)−1X′u] = σ2tr(X(X′X)−1(X′X)−1X′)

E[u′X(X′X)−1(X′X)−1X′u] = σ2tr((X′X)−1 (X′X)−1X′X︸ ︷︷ ︸I

)

13

Dado que X′X es una matríz simétrica, esta se puede descomponer espectralmente como CΛC′

donde C es la matriz con los vectores característicos correspondientes a las raices características deX′X y Λ es una matriz diagonal con las raíces características de X′X . Usando este hecho y laspropiedades de la inversa de una matriz se obtiene:

(X′X)−1 = (CΛC′)−1

(X′X)−1 = (C′)−1Λ−1C−1 = CΛ−1C−1

donde

Λ−1 =

1λ1

0 · · · 0

0 1λ2· · · 0

......

. . ....

0 0 · · · 1λK

Otra vez, usando las propiedades de la traza,

tr(CΛ−1C−1) = tr(Λ−1C−1C︸ ︷︷ ︸I

) = tr(Λ−1)

En consecuencia la traza de Λ−1 es∑k

1λk

y por lo tanto:

E(β′β) = β′β + σ2tr(Λ−1) = β′β + σ2K∑k=1

1

λk

15. Conteste Verdadero o Falso y justique su respuesta.

a) Las ecuaciones normales del modelo de regresión lineal múltiple implican que elvector de residuos MCO es ortogonal al vector de valores estimados y.

b) Si las variables que intervienen en un modelo de regresión simple están en des-viaciones con respecto a su propia media, entonces la línea de regresión estimadadebe pasar a través del origen.

Respuesta:

a) Verdadero. Las ecuaciones normales del modelo de regresión lineal múltiple pueden escribirsecomo:

−2X′y + 2X′Xβ = 0

X′y −X′Xβ = 0

X′ (y −Xβ)︸ ︷︷ ︸u

= 0

Se puede observar que las ecuaciones normales implican que la matriz de información X seaortogonal al vector de residuos u, y esto implica que el vector de residuos sea ortogonal alvector de valores estomados y.

(Xβ)′u = 0

β′X′u︸︷︷︸0

= 0

Esto último se da porque se asume que el vector β no puede ser 0.

14

b) Verdadero. El modelo de regresión simple con variables en desviaciones con respecto a su propiamedia puede ser escrito como:

∀i : y∗i = α+ βx∗i + ui,

donde y∗i y x∗i son las variables en desviaciones con respecto a su media.

Teniendo en cuenta que la media muestral de x∗ y y∗ son 0. Los estimadores MCO del modeloson simplemente:

β =

∑i x∗i y∗i∑

i x∗2i

=

∑i(xi − x)(yi − y)∑

i(xi − x)2

α = y∗ − x∗β = 0− 0β = 0

Como el término de intercepto estimado es 0, entonces la recta de regresión estimada debepasar a través del origen.

16. Suponga que un amigo que ignora sobre econometría básica le pide que estime unmodelo de regresión de la forma yi = α + βxi + ui armando que los errores no estáncorrelacionados y que además se distribuyen exponencialemente. Este le dice que aúncuando los errores no siguen una distribución normal, usted puede hacer las pruebasde hipótesis necesarias debido a que el tamaño de la muestra es 100000.

a) ¾Qué supuesto no cumple para poder estimar el modelo por MCO?

b) Muestre las consecuencias de estimar dicho modelo. (Compruebe si los estimadoresson insesgados)

Respuesta:

a) No se puede estimar porque si los errores siguen una distribución exponencial, entonces loserrores están restringidos a tomar valores positivos. Si todos los errores toman valores positivosentonces no se cumple el supuesto E(u) = 0. Formalmente, la distribución exponencial es:

f(ui) =1

λe−uiλ

donde E(ui) = λ y λ no puede ser 0. De lo contrario no sería una función de probabilidadválida.

b) Los estimadores MCO son:

α = y − xβ

β = β +

∑i(xi − x)ui∑i(xi − x)2

Tomando el valor esperado de β :

E(β) = β +

∑i(xi − x)∑i(xi − x)2

E(ui)︸ ︷︷ ︸λ

Dado que∑i(xi − x) = 0, el estimador es insesgado.

Al tomar el valor esperado del estimador α:

E(α) = α+ E[

∑i uin

] = α+

∑iE(ui)

n= α+

n

E(α) = α+ λ

A pesar de que el estimador MCO de β es insesgado, el estimador del intercepto α es sesgado.

15

17. Para el modelo de regresión sin término constante yi = βxi+ui pruebe que el estimadoryx es insesgado, y demuestre que la varianza es mayor que la del estimador MCO.

Respuesta:

E( yx

)=

1

xE(∑

i βxi + uin

)

E( yx

)=

1

xE(∑

i(βxi + ui)

n

)

E( yx

)=

1

x[β∑i

xin︸ ︷︷ ︸

x

+E

(∑i uin

)]

E( yx

)= β +

∑iE(ui)︸ ︷︷ ︸

0

xn= β

La varianza del estimador es:

V ar( yx

)= V ar

(∑i uixn

)=

1

x2n2V ar(

∑i

ui)

V ar( yx

)=

1

x2n2V ar(

∑i

ui) =σ2n

x2n2=

σ2

x2n

La varianza del estimador MCO es:

V ar(βMCO) =σ2∑i x

2i

Al restar la varianza del estimador MCO de la varianza de yx :

V ar( yx

)− V ar(βMCO) =

σ2

x2n− σ2∑

i x2i

= σ2(1

x2n− 1∑

i x2i

)

V ar( yx

)− V ar(βMCO) = σ2(

∑i x

2i − nx2

nx2∑i x

2i

)

Se sabe que∑i(xi − x)2 =

∑i x

2i − nx2. En consecuencia:

V ar( yx

)− V ar(βMCO) = σ2(

∑i(xi − x)2

nx2∑i x

2i

)

La expresión dentro del paréntesis siempres erá positiva, por lo tanto la varianza del estimador yx

es mayor que la del estimador MCO.

18. Reproduzca un razonamiento similar usado en la demostración del teorema de Gauss-Markov para probar el siguiente resultado:

La combinación lineal c′β, donde β es el estimador del MCO del parámetro β, es el

estimador insesgado de mímima varianza para la combinación lineal c′β.

Respuesta:

Basta con demostrar que la diferencia entre la covarianza de c′β y c′β es mayor o igual a 0, dondeβ es cualquier estimador lineal insesgado de β, distinto del estimador MCO.

16

V ar(c′β)− V ar(c′β) = c′V ar(β)c− c′V ar(β)c

V ar(c′β)− V ar(c′β) = c′(V ar(β)c− V ar(β)c)

V ar(c′β)− V ar(c′β) = c′[V ar(β)− V ar(β)]c

Por el teorema de Gauss-Markov sabemos que el estimador MCO de β es el de mínima varianzay por lo tanto la diferencia de las matrices de covarianzas es semidenida positiva. Llamemos a ladiferencia V ar(β)− V ar(β), Z. Entonces:

V ar(c′β)− V ar(c′β) = c′[Z]c

Dado que Z es semidenida positiva, existe una matriz no-singular B tal que:

V ar(c′β)− V ar(c′β) = c′[B′B]c

V ar(c′β)− V ar(c′β) = (Bc)′(Bc) = w′w = ‖w‖2

La norma de cualquier vector es mayor o igual a 0, por lo tanto la varianza de c′β es menor o a lomucho igual que la varianza de c′β.

19. Demuestre que el estimador MCO del vector β es independiente del estimador MCOdel parámetro σ2, sabiendo que el vector de errores se distribuye N(0, σ2I).

Respuesta:

Podemos escribir β como:

β = β + (X′X)−1X′u

y σ2 como:

σ2 =u′MXu

n− k

β solo depende de la parte aleatoria u a través de (X′X)−1X′︸ ︷︷ ︸L

u, y σ2 solo depende de la parte

aleatoria a través de u′MXu = (MXu)′MXu.

Cov(Lu,MXu) = E(Luu′MX) = LE(uu′)MX

Cov(Lu,MXu) = Lσ2IMX = σ2LMX︸ ︷︷ ︸O

El producto matricial LMX da como resultado la matriz nula debido a que la matrizMX proyectaal complemento ortogonal del espacio columna deX. Dado que los dos vectores son independientes,entonces se puede concluir que los dos estimadores son independientes.

20. Considere el modelo de regresión múltiple y = Xβ + u, en donde u ∼ N(0, σ2I) y X esdeterminística.

a) Muestre que la condición X′u = 0 es una condición necesaria para obtener elestimador MCO para β.

17

b) Dada la distribución del vector u demuestre que el estimador maximo verosímil βcoincide con β solo si la condición X′u = 0 se cumple.

Respuesta:

a) Las ecuaciones normales en forma matricial se pueden escribir como:

−2X′y + 2X′Xβ = 0

X′y −X′Xβ = 0

X′ (y −Xβ)︸ ︷︷ ︸u

= 0

Por lo tanto, X′u = 0 es una condición necesaria para obtener el estimador MCO.

b) Dado que u ∼ N(0, σ2I), se puede escribir la función de máxima verosimilitud en formamatricial de la siguiente manera:

L =∏i

f(ui; β) = (2πσ2)(−n/2) exp(−u′u/(2σ2))

lnL = −n2

ln 2πσ2 − 1

2σ2u′u

lnL = −n2

ln 2πσ2− 1

2σ2(y−Xβ)′(y−Xβ) = −n

2ln 2πσ2− 1

2σ2(y′y−β′X′y−y′Xβ+β′X′Xβ)

∂ lnL

∂β=X′y

σ2− X

′Xβ

σ2= 0

X′y −X′Xβ = 0

X′ (y −Xβ)︸ ︷︷ ︸u

= 0

Por lo tanto, el estimador máximo verosimil y MCO de β solo coinciden cuando la condiciónX′u se cumplen.

21. En el modelo yi = α+βxi+ui con ui ∼ N(0, σ2), use las condiciones de segundo orden parademostrar que los estimadores máximo verosímiles de α, β y σ2 en realidad maximizanla función de máxima verosimilitud.

Respuesta:

Las primeras derivadas de la función de máxima verosimilitud son:

∂ lnL

∂α=

1

σ2

∑i

(yi − α− βxi)

∂ lnL

∂β=

1

σ2

∑i

(yi − α− βxi)xi

∂ lnL

∂σ2= − n

2σ2+

1

2(σ2)2

∑i

(yi − α− βxi)2

Para probar la existencia de un máximo, es necesario plantear la matriz hessiana. Para esto nece-sitamos obtener las segundas derivadas parciales:

18

∂2 lnL

∂α2= − n

σ2

∂2 lnL

∂β2= −

∑i x

2i

σ2

∂2 lnL

∂σ2=

n

2(σ2)2− 1

(σ2)3

∑i

(yi − α− βxi)2

∂2 lnL

∂α∂β= −

∑i xiσ2

∂2 lnL

∂β∂σ2= − 1

(σ2)2

∑i

(yi − α− βxi)xi

∂2 lnL

∂α∂σ2= − 1

σ2

∑i

(yi − α− βxi)

Planteando la matriz hessiana y reemplazando el valor de los estimadores, se observa que el deter-minante del primer menor es negativo, ya que el estimador de la varianza siempre será positivo..

H =

∂2 lnL∂α2

∂2 lnL∂α∂β

∂2 lnL∂α∂σ2

∂2 lnL∂β∂α

∂2 lnL∂β2

∂2 lnL∂β∂σ2

∂2 lnL∂σ2∂α

∂2 lnL∂σ2∂β

∂2 lnL∂σ2

=

− n

σ2−

∑i xi

σ2− 1

σ2

∑i(yi − α− βxi)

−∑i xi

σ2−

∑i x

2i

σ2− 1

(σ2)2

∑i(yi − α− βxi)xi

− 1

σ2

∑i(yi − α− βxi) − 1

(σ2)2

∑i(yi − α− βxi)xi

n

2(σ2)2− 1

(σ2)3

∑i(yi − α− βxi)2

Note que una vez evaluados los estimadores en la matriz hessiana ∂2 lnL

∂α∂σ2 = ∂2 lnL∂β∂σ2 = 0.

H =

− n

σ2−

∑i xi

σ20

−∑i xi

σ2−

∑i x

2i

σ20

0 0 n

2(σ2)2− 1

(σ2)3

∑i(ui)

2

El determinante del segundo menor es:∣∣∣∣∣ − n

σ2−

∑i xi

σ2

−∑i xi

σ2−

∑i x

2i

σ2

∣∣∣∣∣ =n∑i x

2i

(σ2)2− 1

(σ2)2[∑i

xi]2 =

n∑i x

2i − [

∑i xi]

2

(σ2)2

∣∣∣∣∣ − n

σ2−

∑i xi

σ2

−∑i xi

σ2−

∑i x

2i

σ2

∣∣∣∣∣ =n(∑i x

2i − nx2)

(σ2)2=n∑i(xi − x)2

(σ2)2

Ya que el numerador siempre será positivo y el estimador de la varianza también, entonces eldeterminante del segundo menor es positivo.

Solo falta probar que el determinante de la matriz hessiana es negativo.

∣∣H∣∣ = − n

σ2

[−∑i x

2i

σ2

(n

2(σ2)2− 1

(σ2)3

∑i

(ui)2

)]+

∑i xi

σ2

[−∑i xi

σ2

(n

2(σ2)2− 1

(σ2)3

∑i

(ui)2

)]

19

∣∣H∣∣ =

(n

2(σ2)3− 1

(σ2)4

∑i

(ui)2

)[n∑i

x2i − [

∑i

xi]2)

]= −

n2∑i(xi − x)2

2(σ2)3

Facilmente se puede observar que este último término es negativo. Por lo tanto, la matriz hessianaes denida negativa y en consecuencia los estimadores de α, β y σ2 maximizan la función deverosimilitud.

22. Probar que en el modelo de regresión yt = α + βxt + ut el contraste de hipótesis nulaHo : β = β0 puede llevarse a cabo mediante un estadístico F.

Respuesta:

Un estadístico t con n grados de libetad, elevado al cuadrado sigue una distribución chi-cuadradocon 1 grado de libertad en el numerador y n grados de libertad en el denominador.

t2β0=

[β − β0√

σ2/√∑

(xi − x)2

]2

t2β0=

(β − β0)2∑

(xi − x)2

σ2=

(β − β0)2∑

(xi − x)2

[∑u2i ]/(n− 2)

Si se multiplica la ecuación por σ2/σ2 entonces podemos observar que el numerador se distribuyechi-cuadrado con 1 grado de libertad.

(β − β0)2∑

(xi − x)2

σ2∼ χ2

(1)

porque es simplemente una normal estandar elevada al cuadrado. Y

[∑

u2i ]/σ

2 = (n− 2)σ2/σ2 ∼ χ2(n−2)

2

Por lo tanto se tiene en el numerador una función de variable aleatoria que se distribuye χ2(1) y en el

denominador una función de variable aleatoria que se distribuye χ2(n−2) dividida para n− 2. Dado

esto, se tiene la forma del estadístico F . Esta sobreentendido que el numerador esta dividido para1, es decir los grados de libertad.

t2β0=

(β − β0)2∑

(xi − x)2

[∑u2i ]/(n− 2)

= F(1,n−2)

23. Conteste brevemente:

a) Suponga el siguiente modelo de regresión

yi =eβ1+β2xi

1 + eβ1+β2xi

¾Tal como se presenta es un modelo de regresión lineal? Si no es así, ¾Qué trucousaría para convertirlo en un modelo de regresión lineal? Imponga restriccionesen la variable dependiente para que el modelo sea estimable.

b) Suponga que los ingresos anuales y el consumo de alcohol están determinados porel sistema de ecuaciones simultáneas:

log(earnings) = β0 + β1alcohol + β2educ+ u1

2La demostración se presentará más adelante en otro ejercicio.

20

alcohol = γ0 + γ1log(earnings) + γ2educ+ γ3log(price) + u2

donde price es un índice local de precios del alcohol, que incluye los impuestosestatales y locales. Suponga que educ y price son exógenos. Si β1, β2, γ1, γ2 y γ3

dieren todos de cero, ¾Qué ecuación está identicada?¾Cómo se podría estimarla ecuación?

Respuesta:

a) Multiplicando ambos lados de la ecuación por 1 + eβ1+β2xi y resolviendo se obtiene:

yi + yieβ1+β2xi = eβ1+β2xi

yi = eβ1+β2xi − yieβ1+β2xi

yi = eβ1+β2xi(1− yi)

yi(1− yi)

= eβ1+β2xi

Aplicando logaritmo natural a ambos lados:

ln

[yi

(1− yi)

]= β1 + β2xi

Por lo que el modelo sería de la forma:

ln zi = β1 + β2xi + ui

donde zi = yi(1−yi) .

La variable dependiente está restringida a ciertos valores.

∀i : 0 < yi < 1

Si yi = 1, entonces zi tiende a innito. Si 1 < yi ≤ 0 entonces ln zi no está denido.

b) La ecuación identicada es

log(earnings) = β0 + β1alcohol + β2educ+ u1

puesto que log(price) está excluida y aparece en la otra ecuación. log(price) sirve como instru-mento para alcohol. La ecuación se estima usando mínimos cuadrados en dos estapas. Primeroregresando alcohol sobre educ y log(price), y luego regresando log(earnings) sobre ˆalcohol yeduc.

24. Demuestre que bajo los supuestos clásicos, en el modelo yi = β0 + β1xi + ui,(n−2)σ2

σ2 =∑i ui

2

σ2 ∼ χ(n−2) .

Respuesta:

Se puede escribir∑i ui

2 como u′MXu, donde MX = I − PX = I − X(X′X)−1X′. Dada laidempotencia de MX ,

u′MXu

σ2= ε′MXε = (MXε)

′(MXε)

donde ε = uσ ∼ N(0, I).

21

Por lo tanto u′Mxuσ2 se distribuye chi-cuadrado con grados de libertad igual al rango de MX . Para

calcular el rango de la matrizMX se usa la propiedad de la traza y las propiedades de las matricesidempotentes. El rango de una matriz simétrica e idempotente es igual a su traza.

rank(MX) = tr(MX) = tr(I −X(X′X)−1X′) = tr(I)︸ ︷︷ ︸n

−tr(X(X′X)−1X′)

Si se usa la propiedad de la traza entonces tr(X(X′X)−1X′) = tr((X′X)−1X′X) = tr(I), dondeesta nueva matriz identidad es de tamaño k × k.

rank(MX) = n− tr(I) = n− k

Para este caso el número de regresores es 2, por lo tanto el rango de MX es 2.

25. Escoja una respuesta para cada uno de los siguientes literales (justicando su respues-ta):

a) Cuál de las siguientes opciones contiene solamente condiciones necesarias para que

el estimador MCO β sea un estimador insesgado para el parámetro β en el modelode regresión múltiple y = Xβ + u con k regresores:

1) E[u′u] = σ2I y rank(X) = k

2) u ∼ N(0, σ2I)

3) E[u] = 0 y rank(X) = k

4) Ninguna de las anteriores.

b) Cuál de las siguientes condiciones debe cumplir el estimador MCO β en el modelode regresión múltiple y = Xβ+u para garantizar que sea MELI(Mejor EstimadorLinealmente Insesgado):

1) E[β] = β y V ar[β] = σ2(X′X)−1

2) Cov(β, u) = 0

3) β debe ser consistente.

4) Ninguna de las anteriores.

Respuesta:

a) iii. E[u] = 0 y rank(X) = k

En el momento de obtener el valor esperado de β la única condición necesaria para la insesgadezes que el valor esperado de u sea 0. La condición de rango completo asegura que solo haya unestimador que minimice la suma de los cuadrados de los errores.

E[β] = β + (X′X)−1X′E[u]︸︷︷︸0

b) i. E[β] = β y V ar[β] = σ2(X′X)−1

La primera condición asegura que el estimador sea insesgado. La segunda condición aseguraque el estimador sea el de mínima varianza, como se prueba con el teorema de Gauss-Markov.

26. Conteste Verdadero o Falso y justique su respuesta.

a) El R2 ajustado no puede disminuir si se aumenta una variable en la regresión.

b) Para testear la presencia de un cambio estructural en el modelo lineal, la únicaalternativa es recurrir al test de Chow.

Respuesta:

a) Falso. Si el poder explicativo del modelo es muy bajo al incluir un regresor más, entonces el R2

ajustado disminuirá, incluso puede llegar a ser negativo. Precisamente por esto, se lo consideramás able que el R2 sin ajustar.

22

b) Falso. Hay varias alternativas para testear la presencia de un cambio estructural por ejemploel test de Hansen. Un inconveniente del test de Chow es la arbitrariedad al escoger el puntodonde se sospecha que hubo un cambio estructural.

27. Una regresión usando datos trimestrales desde 1958 hasta 1976 inclusive, dió la si-guiente ecuación estimada:

y = 2,20 + 0,10x2 − 3,48x3 + 0,34x4

La suma explicada de los cuadrados fué 109.6, y la suma de residuos al cuadrado,18.48. Cuando la ecuación fué reestimada con tres dummies estacionales añadidas a laespecicación, la suma explicada al cuadrado aumentó a 114.8.

Dos regresiones adicionales basadas en la especicación original se corrieron para lossubperiodos 1958:1 a 1968:4 y 1969:1 a 1976:4, dando las sumas de los residuos alcuadrado 9.32 y 7.46, respectivamente. Se pide:

a) Hallar el valor del estadístico de prueba para testear la presencia de estacionalidad.

b) Hallar el valor del estadísico de prueba para testear la constancia en la relaciónestimada sobre los dos subperiodos.

Respuesta:

a) Para testear la presencia de estacionalidad es necesario plantear la siguiente prueba de hipó-tesis:

H0 : y = β1 + β2x2 + β3x3 + β4x4 + u (3)

H1 : y = β1 + β2x2 + β3x3 + β4x4 + β5x5 + β6x6 + β7x7 + u, (4)

donde x5, x6 y x7 representan las variables dummies estacionales.

Tal y como se vió en clases para relaizar una prueba de hipótesis sobre varias restricciones(eneste caso, 3) en los parámetros se plantea el estadístico F :

F =(RSSR− USSR)/r

USSR/(n− k),

donde RSSR es la suma de los residuos al cuadrado del modelo restringido (3), y USSR es lasuma de los residuos al cuadrado del modelo sin restringir (4). r es el número de restricionesy n− k son los grados de libertad del modelo sin restringir.

La suma de los cuadrados totales es la misma en ambas ecuaciones puesto que y no ha cam-biado. A partir de esto podemos hallar la suma de los residuos al cuadrado del modelo sinrestringir que es el dato que falta para calcular F .

RTSS = RESS +RSSR = 109,6 + 18,48 = 128,08

USSR = UTSS︸ ︷︷ ︸RTSS

−UESS = 128,08− 114,8 = 13,28

El número de restricciones es 3 y los grados de libertad son 76 − 7 = 69, por lo tanto elestadístico F es:

F =(18,48− 13,28)/3

13,28/69= 9,006

23

b) Para testear la presencia de un quiebre estructural se usa el test de Chow para lo cuál secalcula el estadístico F como sigue:

F =(RSSR− SSR1 − SSR2)/k

(SSR1 + SSR2)/(n− 2k),

donde RSSR es la suma de los residuos al cuadrado del modelo original, SSR1 es la sumade los residuos al cuadrados de la regresión para el primer periodo y SSR2 es la suma de losresiduos al cuadrado de la regresión para el segundo periodo.

F =(18,48− 9,32− 7,46)/4

(9,32 + 7,46)/(76− 8)= 1,722

28. Escribiendo las sumas residuales del modelo restringido y = X1β1 + u y sin restringiry = X1β1 +X2β2 +u como y′M1y y y′My respectivamente, probar que y′(M1−M)y =

uR′uR − u′u y que en consecuencia, el estadístico y′(M1−M)y/J

y′My/(n−k−1)sigue la distribución

F Jn−k−1.

Respuesta:

y′(M1 −M)y = y′(M1y −My) = y′M1y − y′My

y′(M1 −M)y = (M1y)′M1y − (My)′My = u′RuR − u′u

Se sabe que:

u′RuR − u′u = (Dβ − r)′[D(X′X)−1D′]−1(Dβ − r)

Por lo tanto si se divide para σ2, el estadísticou′

RuR−u′uσ2 se distribuye χ2

J .

El estimador de la varianza del error dividido para σ2 se distribuye χ2n−k−1. Como consecuencia de

esto:

y′(M1 −M)y/J

y′My/(n− k − 1)∼ F Jn−k−1

29. Para el modelo y = Xβ + u, donde la matriz E[u′u] = σ2I es conocida, derive unestadístico de prueba para la hipótesis conjunta:

H0 : β1 = β2 = ... = βk = 0

Respuesta:

En general, si un vector aleatorio z de tamaño n× 1 está normalmente distribuido con media 0 ymatriz de covarianzas Σ, entonces la forma cuadrática z′Σ−1z se distribute χ2

n.

Dados los supuestos, clásicos el vector β−β ∼ N(0, σ2(X′X)−1) y por lo tanto la forma cuadrática

(β − β)′[σ2(X′X)−1]−1(β − β) = (β − β)′(X′X)(β − β)/σ2 ∼ χ2k

es un buen estadístico de prueba para testear H0 : β1 = β2 = ... = βk = 0.

30. Suponga que el proceso generador de datos en un modelo de regresión es:

yt = α+ βxt + ut (5)

donde el término de error cumple los supuestos clásicos y ∀t : xt es determinística. Sinembargo se estimó por error el modelo:

yt = µ+ ut (6)

24

a) ¾Cuál es el estimador MCO de µ?

b) ¾Es el estimador MCO de µ insesgado para α? Explique.

c) ¾La suma de los residuos de la regresión (6) será igual a 0?

d) Suponga que se quiere predecir yT+1, y para esto se usa la estimación por MCOde (6):

yT+1 = µ

¾Es esta predicción insesgada? (Es decir E(yT+1 − yT+1) = 0)

e) ¾Es posible que la varianza de la predicción usando los estimadores MCO delverdadero modelo (5) sea mayor que la varianza de la predicción usando el(los)estimador(es) del modelo mal especicado (6)? (Recuerde que se asume que enlas dos situaciones el verdadero proceso generador de datos es (5))

Respuesta:

a) Si se usa la forma general del estimador MCO β = (X′X)−1X′y, donde en este caso X esun vector de 1s, se tiene que el estimador de µ es:

µ = (∑t

1)−1∑t

yt =

∑t ytn

= y

b) Para saber si es insesgado para α, se reemplaza yt por el verdadero proceso generador de datos.

µ =

∑t ytn

=

∑t(α+ βxt + ut)

n

µ =nα+ β

∑t xt +

∑t ut)

n= α+ βx+ u

Al tomar el valor esperado:

E(µ) = E(α+ βx+ u) = α+ βx+ E(u)︸ ︷︷ ︸0

E(µ) = α+ βx

En consecuencia el estimador µ no es insesgado para α.

c) Si. Esto siempre se cumple para cualquier regresión lineal que incluya una constante, sinimportar que el modelo este mal especicado.∑

t

(yt − µ) =∑t

(yt − y) = ny − ny = 0

d) Se sabe que µ = α + βx + u. Por otro lado la realización yT+1 es igual a α + βxT+1 + uT+1.El error de predicción está dado por:

yT+1 − yT+1 = α+ βx+ u− (α+ βxT+1 + uT+1)

yT+1 − yT+1 = β(x− xT+1) + u− uT+1

Al tomar el valor esperado se obtiene:

E(yT+1 − yT+1) = E(β(x− xT+1) + u− uT+1) = β(x− xT+1) + E(u)︸ ︷︷ ︸0

−E(uT+1)︸ ︷︷ ︸0

Como se puede observar, la predicción es insesgada si y solo si β = 0 o x = xT+1, pero engeneral la predicción es sesgada. Note que si β = 0 entonces el modelo (6) está bien especicado.

25

e) Suponga que primero se ajusta el modelo usando (5). La predicción de yT+1 será:

yT+1 = α+ βxT+1

mientras que el verdadero valor de yT+1 será:

yT+1 = α+ βxT+1 + uT+1

La varianza del error de predicción es:

V ar(yT+1 − yT+1) = V ar(α+ βxT+1 − α− βxT+1 − uT+1)

V ar(yT+1 − yT+1) = σ2[1 +

1

T+

xT+1 − x∑t(xt − x)2

](7)

Ahora considere el caso en el que el modelo está mal especicado. Como se demostró anterior-mente el error de predicción viene dado por:

yT+1 − yT+1 = β(x− xT+1) + u− uT+1

mientras que su varianza está dada por:

V ar[yT+1 − yT+1] = V ar[β(x− xT+1) + u− uT+1]

Dado que los errores no están correlacionados la expresión anterior se simplica a:

V ar[yT+1 − yT+1] = V ar[u] + V ar[uT+1]

V ar[yT+1 − yT+1] =σ2

T+ σ2 = σ2(1 +

1

T) (8)

Comparando (7) y (8) se puede ver que mientras xT+1 > x, la varianza de la predicción delmodelo mal especicado será menor que la del verdadero modelo.3

31. Considere la regresión por mínimos cuadrados de y sobre k variables (una constante)X. Considere otro conjunto de regresores Z = XA, donde A es una matriz no singular.Entonces cada columna de Z es una combinación lineal de las columnas de X. Pruebeque el vector de residuos de la regresión de y sobre Z y y sobre X, coinciden. ¾Quérelevancia tiene esto al momento de cambiar las unidades de medida en las variablesindependientes?

Respuesta:

Se sabe que la matriz de proyección al espacio columna de X es PX = X(X′X)−1X′. La matrizde proyección al espacio columna de Z es:

PZ = Z(Z′Z)−1Z′ = XA(A′X′XA)−1A′X′

Usando las propiedades de la inversa de una matriz:

PZ = XAA−1︸ ︷︷ ︸I

(X′X)−1 (A′)−1A′︸ ︷︷ ︸I

X′

PZ = X(X′X)−1X′ = PX

Esto se debe a que el subespacio generado por las columnas deX es idéntico al subespacio generadopor las columnas de Z. Esto resulta bastante obvio, ya que cada columna de Z es una combinación

3El hecho de que a veces la varianza de la predicción usando estimadores de un modelo subespecicado, sea menor quela varianza de la predicción usando los estimadores del verdadero proceso generador de datos, se conoce en la literaturacomo paradoja de Stein.

26

lineal de las columnas de X. Si PZ = PX entonces MZ = MX , así el vector de residuos MZyserá igual a MXy.

La importancia de esto es que al cambiar la unidad de medida de las variables explicativas no sealtera la predicción ni los residuos,a pesar de que el estimador β si cambia.

32. En el modelo yt = α+βxt+µt, con E(ut) = 0, E(u2t ) = σ2

t , E(µtµs) = 0, obtener la expresión

analítica de los estimadores αMCG y βMCG, y particularizarlas a los casos:

a) σ2t = σ2 para todo t

b) σ2t = kxt, k dado.

Respuesta:

minα, β

s =∑t

1

σ2t

(yt − α− xtβ)2

Las condiciones de primer orden son:

∂s

∂α=∑t

− 2

σ2t

(yt − α− xtβ) = 0

∂s

∂β=∑t

−2xtσ2t

(yt − α− xtβ) = 0

Despejando α de la primera ecuación se obtiene:

α =

∑tytσ2t− β

∑txtσ2t∑

t1σ2t

Reemplazando α en la segunda ecuación y despejando β se obtiene:

β =

∑t

1σ2t

∑txtytσ2t−∑tytσ2t

∑txtσ2t∑

tx2t

σ2t

∑t

1σ2t−(∑

txtσ2t

)2

a) Si se reemplaza σ2t por σ2, se obtiene el estimador MCO.

β =nσ4

∑t xtyt −

1σ4

∑t yt∑t xt

nσ4

∑t x

2t − 1

σ4

(∑t xt

)2

β =

∑t xtyt − nxy∑t x

2t − nx2

=

∑t(xt − x)(yt − y)∑

t(xt − x)2

El estimador α una vez que se rremplaza β y σ2 es el estimador MCO:

α =1σ2

∑t yt −

1σ2 β

∑t xt

1σ2n

=

∑t ytn− β

∑t xtn

α = y − βx

b) Si σ2t = kxt, entonces:

β =1k2

∑t

1xt

∑txtytxt− 1

k2

∑tytxt

∑txtxt

1k2

∑tx2t

xt

∑t

1xt− 1

k2

(∑txtxt

)2

27

β =

∑t

1xt

∑t yt − n

∑tytxt∑

t xt∑t

1xt− n2

β =ny∑t

1xt− n

∑tytxt

nx∑t

1xt− n2

β =y∑t

1xt−∑tytxt

x∑t

1xt− n

Al reemplazar β en α, y kxt en σ2t se obtiene:

α =

∑tytkxt−[y∑t

1xt−∑tytxt

x∑t

1xt−n

]∑txtkxt∑

t1kxt

α =

∑tytxt−[y∑t

1xt−∑tytxt

x∑t

1xt−n

]n∑

t1xt

α =

(x∑t

1xt−n)

∑tytxt−ny

∑t

1xt

+n∑tytxt

x∑t

1xt−n∑

t1xt

α =

x∑t

1xt

∑tytxt−n

∑tytxt−ny

∑t

1xt

+n∑tytxt

x∑t

1xt−n∑

t1xt

α =

∑t

1xt

(x∑tytxt−ny)

x∑t

1xt−n∑

t1xt

=x∑tytxt− ny

x∑t

1xt− n

33. ¾Cuál de los siguientes casos puede provocar sesgo en los estimadores MCO? Justiquesu respuesta (Si o no, y por qué).

a) Heteroscedasticidad.

b) Omitir una variable relevante.

c) Un coeciente de correlación muestral de 0.95 entre 2 variables independientesincluidas en el modelo.

Respuesta:

a) No.

E(β) = β + (X′X)−1X′E(u)

Dado que u ∼ (0, σ2I), entonces β es insesgado:

E(β) = β

b) Si. Suponga que el verdadero proceso generador de datos es:

y = X1β1 + x2β2 + u

y en su lugar se estima el modelo:

y = X1β1 + u

El valor esperado del estimador MCO será:

28

E(β1) = E[(X′1X1)−1X′1y]

E(β1) = E[(X′1X1)−1X′1X1β1]︸ ︷︷ ︸β1

+E[(X′1X1)−1X′1x2β2] + E[(X′1X1)−1X′1u]︸ ︷︷ ︸0

E(β1) = β1 + (X′1X1)−1X′1x2β2

Por lo tanto el estimador MCO es sesgado.

c) No. Un coeciente de correlación muestral alto entre las variables explicativas solo eleva lavarianza del estimador MCO.

34. Sea el modelo yt = βxt + ut, con ut ∼ NID(0, σ2t ), donde σ2

t = σ2t, y t = 1, 2, ...., T .

a) Demuestre que el estimador MCO es insesgado y que su varianza está dada por:

V ar(βMCO) = σ2

∑t x

2t t

(∑t x

2t )

2

b) Obtenga el estimador de MCG.

c) Muestre que la varianza del estimador de MCG es:

V ar(βMCG) =σ2∑tx2t

t

Respuesta:

a) El estimador MCO cuando no hay intercepto es:

β =

∑t ytxt∑t x

2t

=β∑t x

2t +

∑t utxt∑

t x2t

= β +

∑t utxt∑t x

2t

Y su valor esperado:

E(β) = β +1∑t x

2t

∑t

xtE(ut)︸ ︷︷ ︸0

En consecuencia el estimador MCO es insesgado.

Si se supone que los errores no están correlacionados entonces la varianza del estimador MCOesta dada por:

V ar(β) =1

(∑t x

2t )

2

∑t

x2tV ar(ut) =

1

(∑t x

2t )

2

∑t

x2tσ

2t

V ar(β) =σ2

(∑t x

2t )

2

∑t

x2t t

b) Para obetener el estimador de MCG se minimiza la suma de los residuos al cuadrado, peroesta vez ponderada por la inversa de la parte variable de la varianza de ut.

minβ

s =∑t

1

t(yt − xtβ)2

La condición de primer orden es:

29

∂s

∂β= −2

∑t

ytxtt

+ 2β∑t

x2t

t= 0

Resolviendo se obtiene el estimador MCG de β.

β∑t

x2t

t=∑t

ytxtt

βMCG =

∑tytxtt∑

tx2t

t

c) El estimador βMCG puede escribirse como:

βMCG =

∑t

(xtβ+ut)xtt∑

tx2t

t

=

∑tx2tβ+utxt

t∑tx2t

t

βMCG =β∑tx2t

t +∑tutxtt∑

tx2t

t

= β +

∑tutxtt∑

tx2t

t

Como los errores no están correlacionados la varianza del estimador puede escribirse como:

V ar(βMCG) =1[∑tx2t

t

]2 ∑t

x2t

t2V ar(ut) =

σ2[∑tx2t

t

]2 ∑t

x2t t

t2

V ar(βMCG) =σ2∑tx2t

t

35. Considere el siguiente modelo de regresión simple:

y = α+ βx+ u

y sea z una variable instrumental binaria para x. Utilizar β =∑i(yi−y)(zi−z)∑i(xi−x)(zi−z) para de-

mostrar que el estimador de variables instrumentales(IV) puede escribirse como:

βIV =y1 − y0

x1 − x0

donde y0 y x0 son las medias muestrales de yi y xi para aquellas observaciones con zi = 0,y donde y1 y x1 son las medias muestrales de yi y xi para aquellas observaciones conzi = 1. Este estimador, conocido como estimador de grupo fue propuesto por primeravez por Wald(1940).

Respuesta:

Suponga que existen k observaciones con zi = 1, por lo tanto el número de observaciones con zi = 0

es n − k. La medias muestrales para las observaciones con zi = 1 son y1 =∑i yizik y x1 =

∑i xizik ,

mientras que para zi = 0 son y0 =∑i yi(1−zi)n−k y x0 =

∑i xi(1−zi)n−k . Entonces el estimador por grupos

sugerido por Wald es:

βIV =

∑i yizik −

∑i yi(1−zi)n−k∑

i xizik −

∑i xi(1−zi)n−k

βIV =

(n−k)∑i yizi−k

∑i yi(1−zi)

k(n−k)

(n−k)∑i xizi−k

∑i xi(1−zi)

k(n−k)

30

βIV =(n− k)

∑i yizi − k

∑i yi(1− zi)

(n− k)∑i xizi − k

∑i xi(1− zi)

βIV =n∑i yizi − k

∑i yizi − k

∑i yi + k

∑i yizi

n∑i xizi − k

∑i xizi − k

∑i xi + k

∑i xizi

βIV =n∑i yizi − k

∑i yi

n∑i xizi − k

∑i xi

Multiplicando por nn se obtiene:

βIV =

∑i yizi − ky∑i xizi − kx

=

∑i yizi − y

∑i zi∑

i xizi − x∑i zi

βIV =

∑i(yi − y)zi∑i(xi − x)zi

=

∑i(yi − y)(zi − z)∑i(xi − x)(zi − z)

36. Dado el modelo de regresión yt = µ+ εt, donde E(εt) = 0, V ar(εt) = σ2xt, con xt > 0:

a) ¾Cuál es el estimador lineal más eciente del parámetro µ? ¾Cuál es su varianza?

b) ¾Cuál es el estimador MCO de µ y cuál es su varianza?

Respuesta:

a) El estimador lineal más eciente es el estimador de mínimos cuadrados generalizados MCG:

minµ

s =∑t

1

xt(yt − µ)2

Al derivar y obtener la condición d eprimer orden se tiene que:

∂s

∂µ= −2

∑t

ytxt

+ 2µ∑t

1

xt= 0

Despejando µ se obtiene:

µ∑t

1

xt=∑t

ytxt

µ =

∑tytxt∑

t1xt

La varianza del estimador MCG de µ es:

V ar(µ) = V ar(

∑tµ+εtxt∑

t1xt

) = V ar(

∑tµxt

+∑tεtxt∑

t1xt

)

V ar(µ) = V ar(

∑tµxt∑

t1xt

+

∑tεtxt∑

t1xt

) = V ar(µ∑t

1xt∑

t1xt

+

∑tεtxt∑

t1xt

)

V ar(µ) = V ar(µ+

∑tεtxt∑

t1xt

) =1

[∑t

1xt

]2V ar(

∑t

εtxt

)

Bajo el supuesto de independencia de los errores, las covarianza entre los errores de todas lasobservaciones son 0.

V ar(µ) =1

[∑t

1xt

]2

∑t

V ar[εtxt

] =1

[∑t

1xt

]2

∑t

σ2xtx2t

V ar(µ) =σ2∑t

1xt

[∑t

1xt

]2=

σ2∑t

1xt

31

b) Tal y como se ha visto en clase, el estimador MCO de µ es:

µ = y =

∑t ytn

µ =

∑t µ+

∑t εt

n=

∑t µ

n+

∑t εtn

µ = µ+

∑t εtn

Y su varianza es:

V ar(µ) =1

n2

∑t

V ar(εt) =σ2

n2

∑t

xt

37. Dado el modelo lineal sin término constante y un solo regresor:

yi = βxi + ui

Donde E(ui) = 0, E(u2i ) = σ2

i suponiendo que las varianzas cambian con el esquemaσ2i = σ2zi donde zi es una variable conocida.

a) Obtenga la expresión analítica para el estimador MCG, así como su varianza.

b) Utilice la desigualdad de Cauchy-Scwarthz para comparar la varianza del estima-dor obtenido en el literal anterior con el estimador MCO.

c) ¾Qué ocurriría si a pesar de la heteroscedasticidad se utilizase σ2(X′X)−1 comomatriz de varianza-covarianza para el estimador MCO.

Nota: La desigualdad de Cauchy-Schwarz garantiza que para dos variables cualquierase cumple la expresión: [

∑i viwi]

2 ≤ [∑i v

2i ][∑i w

2i ].

Respuesta:

a) Si la matriz de varianzas-covarianzas de u es Ω, entonces el estimador MCG de β expresadoen forma matricial es:

βMCG = (x′Ω−1x)−1x′Ω−1y

y su varianza:

V ar(βMCG) = σ2(x′Ω−1x)−1

Teniendo en cuenta que

Ω =

z1 0 0 · · · 00 z2 0 · · · 0

0 0. . . · · · 0

......

... zn−1

...0 0 0 0 zn

el estimador MCG es:

βMCG =

∑ixiyizi∑

ix2i

zi

y su varianza:

V ar(βMCG) =σ2∑ix2i

zi

32

b) Usando la desigualdad de Cauchy-Schwarz [∑i viwi]

2 ≤ [∑i v

2i ][∑i w

2i ], donde vi = xi√

ziy

wi = xi√zi.

[∑i

xi√zixi√zi]

2 ≤ [∑i

x2i

zi][∑i

x2i zi]

[∑i

x2i ]

2 ≤ [∑i

x2i

zi][∑i

x2i zi]

Al manipular la desigualdad se obtiene:

1∑ix2i

zi

≤∑i x

2i zi

[∑i x

2i ]

2

Si se multiplica ambos lados de la inecuación por σ2 entonces:

σ2∑ix2i

zi

≤σ2∑i x

2i zi

[∑i x

2i ]

2

var(βMCG) ≤ V ar(βMCO)

38. Considere un modelo simple para estimar el efecto de tener un computador personal(PC) sobre el promedio de calicaciones de los estudiantes de una universidad pública:

GPA = β0 + β1PC + u

Responda lo siguiente:

a) ¾Por qué debería estar correlacionada PC con el error u?

b) Explicar por qué PC debe de estar correlacionada con el nivel de renta de lospadres. ¾Es suciente esto para concluir que el nivel de renta de los padres es unabuena variable instrumental para PC? Justique su respuesta.

c) Supongamos que hace 4 años, la universidad concedió becas para comprar compu-tadoras a aproximadamente la mitad de sus estudiantes que recién ingresan yque, además los alumnos que las recibieron fueron elegidos al azar. Explique comopodría utilizar esta información para construir una variable instraumental paraPC.

Respuesta:

a) Porque hay otros factores en el error que posiblemente inuyan sobre el promedio de calica-ciones y esten correlacionados con PC. Un ejemplo es el gasto en educación de los estudiantesque realizan sus padres. Esta variable está claramente correlacionada con PC.

b) PC está correlacionada con el nivel de renta de los padres porque es más probable que losestudiantes con padres de mayores ingresos tengan computadoras y los de menos ingresos no.Esto no es suciente para concluir que el nivel de renta de los padres es una buena variableinstrumental ya que el nivel de ingresos de los padres puede estar correlacionado con el error.Por ejemplo está correlacionado con el gasto en educación.

c) Se puede usar una variable dummy que indique 1 si el estudiante recibió beca y 0 en casocontrario. Esta variable está claramente correlacionada con PC y dado que los estudiantes querecibieron las becas fueron escogidos al azar(la variable es exógena en el modelo), entonces noestá correlacionada con el error.

33

39. Supongamos que queremos contrastar si las chicas que asisten a institutos femeninosde educación secundaria son mejores en matemáticas que las chicas que van a institutosmixtos. Se dispone de una muestra aleatoria de adolescentes femeninas que estudian losúltimos años de la secundaria en un estado de Estados Unidos, y score es la calicaciónen un determinado examen de matemáticas. Sea girlhs una variable cticia que indicasi una estudiante asiste a instituto femenino, conteste:

a) ¾Qué otras variables se podrían incluir en la ecuación? (Debe ser posible recopilardatos sobre estas variables.)

b) Escribir una ecuación que relacione score con girlhs y las otras variables indicadasen el apartado (a).

c) Supongamos que el apoyo y la motivación que ofrecen los padres son factoresno observables que se encuentran en el término de error del apartado (b). ¾Esprobable que éstos estén correlacionados con girlhs? Explicar por qué.

d) Discutir los supuestos necesarios para que el número de institutos femeninos en unradio de veinte millas de la casa de las estudiantes sea una variable instrumentalválida para girlhs.

Respuesta:

a) Se puede incluir el ingreso familiar, ya que se esperaría que quienes tienen padres con me-jores ingresos rindan mejor en los estudios. Se puede incluir una variable proxy del nivel deinteligencia como el IQ. Otra variable importante que se debería incluir son las horas que laestudiante dedica a estudiar matemáticas.

b)score = α+ β1girlhs+ β2ing + β3IQ+ β4time+ u

donde:

girlhs =variable cticia que indica si una estudiante asiste a instituto femenino.

ing =ingreso familiar.

IQ =nivel de IQ.

time =tiempo que la estudiante dedica a estudiar matemáticas medido en horas promediosemanales.

score =calicación en el examen de matemáticas.

c) Si es probable que esté correlacionado porque los padres que ofrecen menos apoyo y motivacióntienden a enviar a sus hijas a instututos femeninos. Note que también se puede argumentarlo contrario. Más alla de la justicación lo que se busca es encontrar un sustento teórico quepermita hacer suspuestos sobre un modelo de regresión, en especial aquellos supuestos que nose pueden testear.

d) Para que sea una variable instrumental válida debe estar correlacionada con la variable girlhs.Obviamente las dos variables están correlacionadas. Mientras haya más institutos femeninosen un radio de veinte millas de la casa, es más probable que los padres decidas que sus hijasdeben estudiar en institutos femeninos.

La otra condición necesaria es que esta variable no debe estar correlacionada con el error. En elerror se encuentran factores no observables como el apoyo y motivación que los padres ofrecena sus hijas. Estos factores no tienen relación alguna con el número de institutos femeninos quehay cerca de la casa. En resumen, dicha variable cumple con las dos condiciones que hacen quesea una variable instrumemntal válida.

Sea num el número de institutos femeninos en un radio de veinte millas de las casas de losestudiantes. Entonces:

Cov(num, girhs) 6= 0

Cov(num, u) = 0

34

40. Comente las siguientes armaciones:

a) Si los errores en una regresión simple no se distribuyen de forma normal, losestimadores MCO dejan de ser los Mejores Estimadores Lineales (MELI), perosiguen siendo insesgados.

b) Se desea realizar un estudio que tenga como variable dependiente al ahorro agre-gado para explicarlo por medio de las tasas de interés, en una economía. Uninvestigador aún no dene los años de análisis para el estudio. Para procurar quelas estimaciones de mínimos cuadrados ordinarias sean más precisas, ¾el investiga-dor debe escoger un periodo en el cual las tasas de interés hayan uctuado muchoo es preferible poca uctuación?

c) Un investigador plantea una regresión con datos anuales, desde 1981 hasta 1999,sobre los niveles de consumo agregados explicados por los ingresos, en cierta eco-nomía. Analiza la siguiente relación:

consumo = α+ βingreso+ ut

Adicionalmente conoce que el coeciente de correlación entre las variables consumoe ingreso es igual a 0,7. Al 95 % de conanza es signicativo el coeciente de lapendiente que se estima?

Respuesta:

a) Falso. Aún cuando los errores no se distribuyan normal, los estimadores MCO siguen siendolos mejores estimadores linealmente insesgados. El teorema de Gauss-Markov solo requiere queE(ui|xi) = 0 , V ar(ui) = σ2 y Cov(ui, uj) = 0.

b) El investigador debe escoger un período en el que las tasas de interés hayan uctuado poco.Si utiliza el resto de períodos es probable que el modelo presente heterocedasticidad.

c) Falso. Hace falta más información para concluir algo así. Una correlación lineal fuerte entredos variables no necesariamente implica que los coecientes de la regresión entre los dos seansignicativos.

41. Considere el modelo microeconómico de demanda y oferta:

Demanda:Q = α1P + β1Z1 + u1

Oferta:Q = α2P + β2Z2 + u2

donde Q(= cantidad demandada u ofertada) y P (= precio). Las variables exógenas, Z1(=ingreso) y Z2(= precio de lasmaterias primas), son independientes de las perturbacionesestructurales u1 y u2. Estas perturbaciones tienen esperanza 0. En lo siguiente, respectoa la estimación, supondremos que disponemos de una muestra de observaciones de Q,P , Z1 y Z2.

a) Muestre que si α1 6= 0 o α2 6= 0, existe al menos una forma reducida para Q.

b) Si α1 6= 0 y α2 = 0, obtener la forma reducida de P .

c) Si α1 6= 0, α2 6= 0 y α1 6= α2, encuentre las formas reducidas para P y Q.

Respuesta:

a) Despejando P de la ecuación de oferta:

P =Q

α2− β2

α2Z2 −

u2

α2(9)

Como se puede apreciar hasta ahora, es necesario que α2 6= 0 para poder despejar P , y porlo tanto que la forma reducida de Q exista. Reemplazando (9) en la ecuación de demanda seobtiene:

35

Q = α1(Q

α2− β2

α2Z2 −

u2

α2) + β1Z1 + u1

Q(1− α1

α2) = β1Z1 −

α1β2

α2Z2 −

α1u2

α2+ u1

Q =β1

(1− α1

α2)︸ ︷︷ ︸

π1

Z1 −α1β2

(1− α1

α2)α2︸ ︷︷ ︸

π2

Z2 +− α1u2

(1− α1

α2)α2

+u1

(1− α1

α2)︸ ︷︷ ︸

v1

Si al principio se despeja P de la ecuación de demanda, entonces la condición α1 6= 0 seránecesaria.

b) Como α2 = 0 al momento de igualar las dos ecuaciones se obtiene:

α1P + β1Z1 + u1 = β2Z2 + u2

P =β2

α1︸︷︷︸π3

Z2 −β1

α1︸︷︷︸π4

Z1 +u2

α1− u1

α1︸ ︷︷ ︸v2

c) La forma reducida para Q es la misma que la del literal (a). La forma reducida para Pserá distinta. La condición α1 6= α2 garantiza que la forma reducida exista como se verá acontinuación. Se pueden escribir las dos ecuaciones en forma matricial.[

1 −α1

1 −α2

]︸ ︷︷ ︸

B

[QP

]=

[β1 00 β2

] [Z1

Z2

]+

[u1

u2

](10)

Para que la forma reducida exista, la inversa de la matriz B tiene que existir. Si α1 = α2,entonces el determinante de la matriz es 0 y por lo tanto no tiene inversa. Usando la condicióndel ejercicio la matriz inversa existe y es igual a:

B−1 =1

α1 − α2

[−α2 α1

−1 1

]Premultiplicando (10) por B−1 se obtiene la forma reducida:[

QP

]︸︷︷︸y

=

[− α2β1

α1−α2

α1β2

α1−α2

− β1

α1−α2

β2

α1−α2

]︸ ︷︷ ︸

π

[Z1

Z2

]︸ ︷︷ ︸z

+

[ α1u2

α1−α2− α2u1

α1−α2u2

α1−α2− u1

α1−α2

]︸ ︷︷ ︸

v

42. Construya el estimador VI y su varianza para el vector de parámetros β a partir delmodelo:

y = Xβ + u

X = Zγ + ε

Respuesta:

Primero se regresa X sobre Z para obtener el mejor instrumento para X. Luego en la primeraecuación se sustituye X por la predicción de la segunda. Es decir:

y = PZXβ + u

36

Se obtiene el estimador de β de la forma común:

βV I = (X′PZX)−1X′PZy

La varianza del estimador es

V ar(β) = V ar((X′PZX)−1X′PZu)

V ar(β) = (X′PZX)−1X′PZ V ar(u)︸ ︷︷ ︸σ2I

PZX(X′PZX)−1

V ar(β) = σ2(X′PZX)−1X′PZX(X′PZX)−1︸ ︷︷ ︸I

= σ2(X′PZX)−1

43. Suponga que se quiere determinar la relación entre la cantidad que contribuye unempleado a su plan de pensiones en función de la generosidad del plan. Para ello seplantea el siguiente modelo:

yi,e = β0 + β1xi,e,1 + β2xi,e,2 + β3xi,3 + ui,e

donde yi,e es la contribución anual del empleado e que trabaja en la empresa i, xi,e,1 esel ingreso anual de esta persona y xi,e,2 es su edad. xi,3 es la cantidad que la empresaaporta a la cuenta de un empleado por cada dólar con que éste contribuye.

Suponga que para este modelo se cumplen los supuestos de Gauss-Markov. Sin embargousted no cuenta con datos para cada empleado, pero en su lugar cuenta con datospromedio por empresa, asi como con el número de empleados por empresa. Se planteael siguiente modelo para las empresas usando datos promedio:

yi = α0 + α1xi,1 + α2xi,2 + α3xi,k + ui (11)

donde ui = m−1i

∑mie ui,e es el error promedio de todos los empleados de la empresa i.

Si para todo e, V ar(ui,e) = σ2 y los errores no están correlacionados entre empleados,conteste:

a) Calcular V ar(ui) . ¾Es correcto usar el estimador MCO? ¾Por qué?

b) ¾Qué ponderador de la suma residual, usaría para estimar el modelo por mínimoscuadrados ponderados y por qué? (No solo de una explicación matemática, sinotambién una breve explicación intuitiva).

Respuesta:

a)

V ar(ui) = V ar(m−1i

mi∑e

ui,e)

V ar(ui) =1

m2i

mi∑e

V ar(ui,e) =1

m2i

mi∑e

σ2

V ar(ui) =mi

m2i

σ2 =σ2

mi

No es correcto usar MCO debido a que la varianza del error será más pequeña a medida que elnúmero de empleados aumente y por lo tanto el supuesto de homocedasticidad no se cumple.

37

b) El ponderador de la suma residual que hace cumplir el supuesto de homocedasticidad es elnúmero de empleados de la empresa. Es decir, si se multiplica el modelo (11) por

√mi, el

modelo cumple todos los supuestos necesarios para estimar por MCO.

V ar(ui√m1) =

σ2

mimi = σ2

Al hacer esto, se le está asignando más peso a las empresas con mayor número de empleados.De esta manera se compensa la reducción de la varianza de ui a medida que el número deempleados es mayor.4

44. Considere un modelo para los empleados de varias empresas.

yi,e = β0 + β1xi,e,1 + β2xi,e,2 + ..+ βkxi,e,k + fi + vi,e

donde la variable inobservada fi es un efecto de la empresa para cada empleado enuna empresa dada i. El término de error vi,e es especíco para cada empleado e de laempresa i. El error compuesto es ui,e = fi + vi,e.

a) Suponga que V ar(fi) = σ2f , V ar(vi,e) = σ2

v, y que fi y vi,e no están correlacionadas.

Muestre que V ar(ui,e) = σ2f + σ2

v; llame a esto σ2.

b) Ahora suponga que para e 6= g, vi,e y vi,g no están correlacionadas. Muestre queCov(ui,e, ui,g) = σ2

f .

c) Sea ui = m−1i

∑mie ui,e, el promedio de errores compuestos dentro de una empresa.

mi es el número total de empleados de la empresa i. Muestre que V ar(ui) = σ2f +

σ2v

mi.

d) Analice la relevancia del inciso (c) para la estimación por mínimos cuadradosponderados empleando datos promediados a nivel de las empresas, donde el pon-derador empleado para la observación i es el tamaño de la rma.

Respuesta:

a)V ar(ui,e) = V ar(fi + vi,e) = V ar(fi) + V ar(vi,e)

V ar(ui,e) = σ2f + σ2

v = σ2

La varianza de ui,e es simplemente la suma de las varianzas de fi y vi,e porque estas variablesno estan correlacionadas y por ende tienen covarianza 0.

b)Cov(ui,e, ui,g) = E[ui,eui,g]− E[ui,e]E[ui,g]

Cov(ui,e, ui,g) = E[(fi + vi,e)(fi + vi,g)]− E[fi + vi,e]E[fi + vi,g]

Cov(ui,e, ui,g) = E[f2i + fivi,g + fivi,e + vi,evi,g]−

[E[fi]E[fi] + E[fi]E[vi,g]

+E[vi,e]E[vi,g] + E[fi]E[vi,e]]

Cov(ui,e, ui,g) = E[f2i ]− E[fi]E[fi]︸ ︷︷ ︸V ar(fi)

+E[fivi,g]− E[fi]E[vi,g]︸ ︷︷ ︸Cov(fi,vi,g)

+E[fivi,e]− E[fi]E[vi,e]︸ ︷︷ ︸Cov(fi,vi,e)

+E[vi,evi,g]− E[vi,e]E[vi,g]︸ ︷︷ ︸Cov(vi,e,vi,g)

4Como se vió en clase, los ponderadores muchas veces se escogen arbitrariamente. Este ejercicio ilustra como algunasveces pueden surgir de forma natural.

38

Dado es supuesto de correlación 0 entre fi y vi,g, y correlación 0 entre vi,e y vi,g, los últimostres términos del lado derecho de la ecuación anterior son 0.

Cov(ui,e, ui,g) = E[f2i ]− E[fi]E[fi]︸ ︷︷ ︸V ar(fi)

= σ2f

c)

V ar(ui) = V ar(m−1i

mi∑e

ui,e)

V ar(ui) =1

m2i

V ar(

mi∑e

ui,e) =1

m2i

[mi∑e

V ar(ui,e) + 2∑e

∑g

Cov(ui,e, ui,g)]

V ar(ui) =1

m2i

[miσ

2 + 2∑e

(mi − 1)σ2f

]=

1

m2i

[miσ

2 + 2mi

2(mi − 1)σ2

f

]

V ar(ui) =1

m2i

[miσ

2f +miσ

2v +m2

iσ2f −miσ

2f

]=σ2f

mi+σ2v

mi+ σ2

f −σ2f

mi

V ar(ui) = σ2f +

σ2v

mi

d) El problema de usar el tamaño de la rma como ponderador es que aun así la varianza delnuevo error dependerá del tamaño de la rma. La varianza del nuevo modelo será:

V ar(u∗i ) = miσ2f + σ2

v

45. Proponga un estadístico para el contraste de hipótesis nula H0 : β2 = 0 en el modelo:

yt = β1 + β2xt + ut, V ar(ut) = σ2t = σ2

ux2t

Respuesta:

Se estima el modelo por MCO asumiendo homocedasticidad, sin embargo la varianza del estimadorcambia. En su lugar se construye la varianza usando el estimador de White.

V ar(β) = (X′X)−1(∑

t

ut2(xtx

′t))

(X′X)−1

Para el caso de β2, se tiene:

V ar(β2) =

∑t(xt − x)ut

2

[∑t(xt − x)2]2

Luego se usa el estadístico t habitual pero usando la nueva varianza. Es decir:

t =β2√∑

t(xt−x)ut2

[∑t(xt−x)2]2

46. Considere el modelo yt = βxt + ut, con σ2t = k(βxt)

2, donde las variables se hallan endiferencias respecto a sus medias muestrales.

a) Pruebe que el estimador de MCG de β es igual al promedio muestral del cocienteytxt. Halle su varianza.

b) ¾Qué tipo de problemas surgirían en esta estimación si xt = 0 para algún t? ¾Quéinferencia obtendríamos del resultado?

39

Respuesta:

a) El estimador de MCG puede escribirse como:

β = (x′Ω−1x)−1x′Ω−1y

donde

Ω−1 =

1

k(βx1)2 0 · · · 0

0 1k(βx2)2 · · · 0

......

. . ....

0 0 0 1k(βxT )2

Resolviendo se obtiene:

β =( T

kβ2

)−1 1

kβ2

∑t

ytxt

=

∑tytxt

T

La varianza del estimador MCG es:

V ar(β) = (x′Ω−1x)−1 =( T

kβ2

)−1

=kβ2

T

b) Si xt = 0 para algún t, entonces se obtendrá un β innito.

47. Suponga el modelo:

y1 = β0 + β1y2 + β2z1 + u1 (12)

donde y2 es endógena y z1 es exógena. Se cuenta con una variable z2 que sirve comoinstrumento para y2. Al tomar la forma reducida de y2 y sustituirla en el modelo (12)se obtiene la forma reducida para y1:

y1 = α0 + α1z1 + α2z2 + v1

a) Obtener los coecientes αj en función de los coecientes de la forma reducida dey2 y los βj.

b) Obtener el error de forma reducida , v1, en función de u1, v2 y los parámetros.

c) ¾Cómo estimaríamos consistentemente los αj?

Respuesta:

a) La forma reducida de y2 es:

y2 = π0 + π1z1 + π2z2 + v2 (13)

Sustituyendo (13) en (12) se obtiene:

y1 = β0 + β1(π0 + π1z1 + π2z2 + v2) + β2z1 + u1

y1 = β0 + β1π0 + β1π1z1 + β1π2z2 + β1v2 + β2z1 + u1

y1 = β0 + β1π0︸ ︷︷ ︸α0

+ (β1π1 + β2)︸ ︷︷ ︸α1

z1 + β1π2︸︷︷︸α2

z2 + β1v2 + u1︸ ︷︷ ︸v1

Por lo tanto, α0 = β0 + β1π0, α1 = β1π1 + β2 y α2 = β1π2.

b) Del resultado anterior se tiene que v1 = β1v2 + u1.

40

c) Los αj pueden estimarse por MCO debido a que las variables z1y z2 son exógenas en el modelo,sin embargo no se podrá recuperar los coecientes βj y πj debido a que habrán más incógnitasque ecuaciones.

48. Considere el modelo simple de series temporales donde la variable explicativa tiene unerror de medida clásico:

yt = β0 + β1x ∗t +ut (14)

xt = x∗t + et

donde ut tiene media cero y no está correlacionado con x∗t y et. Solamente se observanlas variables yt y xt. Suponga que et tiene media cero y no está correlacionado con x∗ty que x∗t tiene también media cero (este último supuesto se hace sólo para simplicarel álgebra)

a) Sustituir x∗t = xt − et y sustituirlo en la ecuación (14). Demostrar que el términode error en la nueva ecuación, digamos vt, tiene correlación con negativa con xt siβ1 > 0. ¾Qué implica esto para el estimador MCO de β1 en la regresión de yt sobrext?

b) Además de los supuestos anteriores, suponga que ut y et no están correlacionadoscon todos los valores pasados de x∗t y e∗t ; en particular, con x∗t−1 y et−1. Demostrarque E(xt−1vt) = 0, donde vt es el término de error en el modelo del apartado (a).

c) ¾Es probable que las variables xt y xt−1 están correlacionadas? Explicar por qué.

d) ¾Qué estrategia sugieren los apartados (b) y (c) para estimar consistentemente β0

y β1?

Respuesta:

a) Al sustituir x∗t = xt − et en (14) se obtiene:

yt = β0 + β1xt + ut − β1et︸ ︷︷ ︸vt

Dado que xt tiene media cero la covarianza entre xt y vt puede escribirse como:

Cov(xt, vt) = E(xtvt)

Cov(xt, vt) = E[(x∗t + et)(ut − β1et)]

Cov(xt, vt) = E(x∗tut − β1etx∗t + etut − β1e

2t )

Cov(xt, vt) = E(x∗tut)︸ ︷︷ ︸0

−β1E(etx∗t )︸ ︷︷ ︸

0

+E(etut)︸ ︷︷ ︸0

−β1E(e2t )

donde E(e2t ) es la varianza de et, y siempre será positiva. Si β1 > 0 , entonces la covarianza

y por ende la correlación será negativa. En consecuencia el estimador de β1 será sesgado einconsistente.

41

b)E(xt−1vt) = E[(x∗t−1 + et−1)(ut − β1et)]

E(xt−1vt) = E(x∗t−1ut + et−1ut − β1etx∗t−1 − β1etet−1)

E(xt−1vt) = E(x∗t−1ut)︸ ︷︷ ︸0

+E(et−1ut)︸ ︷︷ ︸0

−β1E(etx∗t−1)︸ ︷︷ ︸

0

−β1E(etet−1)︸ ︷︷ ︸0

E(xt−1vt) = 0

c) Al obtener la covarianza

Cov(xt, xt−1) = E(xtxt−1)

Cov(xt, xt−1) = E(x∗tx∗t−1 + etx

∗t−1 + x∗t et−1 + etet−1)

Cov(xt, xt−1) = E(x∗tx∗t−1) + E(etx

∗t−1)︸ ︷︷ ︸

0

+E(x∗t et−1) + E(etet−1)︸ ︷︷ ︸0

es probable que si esten correlacionados debido a que no se conocen la correlación entre x∗t yx∗t−1, y la correlación entre x∗t y et−1.

d) La manera de estimar consistentemente los parámetros del modelo (14) es por el métodode variables instrumentales. Un buen instrumento es xt−1 debido a que Cov(xt−1 xt) 6= 0 yCov(xt−1 vt) = 0.

49. Considere este modelo microeconómico de demanda y oferta de trabajo:

Demanda: y1 = α1 + α2y2 + α3x1 + α4x2 + u1

Oferta: y1 = α5 + α6y2 + u2

Aquí, y1(=horas de trabajo) e y2(=salario) son las variables endógenas. Las variablesexógenas, x1(=tipo de interés) y x2(=precio de las materias primas), son independien-tes de las perturbaciones estructurales u1 y u2. Estas perturbaciones tienen esperanzacero. En lo siguiente, respecto a la estimación, supondremos que disponemos de unamuestra de observaciones de y1, y2, x1 y x2de tamaño moderado, y que las regresioneslineales a efectuar incluyen una constante.

a) Derive la forma reducida.

b) ¾Está identicada la ecuación de oferta? ¾Debe estimarse a partir de la regresiónlineal mínimo-cuadrática de y1 sobre y2? Explicar.

c) ¾Está identicada la ecuación de demanda? ¾Debe estimarse a partir de la regre-sión lineal mínimo-cuadrática de y1 sobre y2, x1 y x2? Explicar.

d) Se le pide que estime la ecuación de oferta por mínimos cuadrados en dos estapas.¾Qué pasos seguiría? Sea breve pero explícito.

e) Se le pide que estime la ecuación de demanda por mínimos cuadrados en dosestapas. ¾Qué pasos seguiría? Sea breve pero explícito.

Respuesta:

42

a) Al igualar la oferta y demanda se despeja y2.

α1 + α2y2 + α3x1 + α4x2 + u1 = α5 + α6y2 + u2

α2y2 − α6y2 = α5 − α1 − α3x1 − α4x2 + u2 − u1

(α2 − α6)y2 = α5 − α1 − α3x1 − α4x2 + u2 − u1

Si se asume que α2 6= α6 se puede dividir ambos lados de la ecuación anterior para α2 − α6.

y2 =α5 − α1

α2 − α6︸ ︷︷ ︸π1

+−α3

α2 − α6︸ ︷︷ ︸π2

x1 +−α4

α2 − α6︸ ︷︷ ︸π3

x2 +u2 − u1

α2 − α6︸ ︷︷ ︸v1

Para obtener la forma reducida de y1, se reemplaza la ecuación anterior en la ecuación deoferta.

y1 = α5 + α6

(α5 − α1

α2 − α6+−α3

α2 − α6x1 +

−α4

α2 − α6x2 +

u2 − u1

α2 − α6

)+ u2

y1 = α5 +α6(α5 − α1)

α2 − α6+−α6α3

α2 − α6x1 +

−α6α4

α2 − α6x2 +

α6(u2 − u1)

α2 − α6+ u2

y1 =α5α2 − α1α6

α2 − α6︸ ︷︷ ︸π4

+−α6α3

α2 − α6︸ ︷︷ ︸π5

x1 +−α6α4

α2 − α6︸ ︷︷ ︸π6

x2 +α2u2 − α6u1

α2 − α6︸ ︷︷ ︸v2

b) La ecuación de oferta si está identicada, sin embargo no se debe estimar por mínimos cuadra-dos ordinarios debido a que y2 es endógena y causa un sesgo de simultaneidad en el estimador,además de la inconsistencia.

c) La ecuación de demanda no está identicada, y tampoco debe estimarse por mínimos cuadradosordinarios por la misma razón (el estimador es sesgado e inconsistente).

d) Primero se regresa y2 sobre x1 y x2. Mediante una prueba de hiótesis se testea si los coecientesque acompañan estas variables son signicativos. De ser así, el segundo paso es regresar y1

sobre y2, donde y2 es la predicción de la regresión de y2 sobre x1 y x2.

e) No se puede estimar por mínimos cuadrados en dos etapas debido a que la ecuación no estáidenticada.

50. En el modelo lineal

yi = x′iβ + ui

E(ui) = 0

Suponga que los términos de error no están correlacionados, sin embargo no se cumpleel supuesto de homocedasticidad. Suponga que la estructura de la varianza del errorcambia en función de xi y además es conocida. Muestre que el estimador de mínimoscuadrados generalizados de β puede ser escrito como un estimador de variable instru-mental usando algún instrumento zi. (Encuentre una expresión para zi en función dexi)

Respuesta:

Expresando la matriz de varianzas-covarianzas de u como Ω, el estimador de mínimos cuadradosgeneralizados es:

43

βMCG = (X′Ω−1X)−1X′Ω−1y

Al compararlo con el estimador de variable instrumental

βIV = (Z′X)−1Z′y

se puede notar que es necesario que Z′ sea igual a X′Ω−1. Debido a la simetría de Ω−1, la matrizde instrumentos Z puede ser escrita como:

Z = Ω−1X

Z =

1σ21

0 · · · 0

0 1σ22· · · 0

......

. . ....

0 0 · · · 1σ2n

x11 x21 · · · xk1

x12 x22 · · · xk2

......

. . ....

x1n x2n · · · xkn

Por lo tanto, el instrumento z′i puede ser escrito como

z′i =( 1

σ2i

)x′i

Referencias

[1] Novales (1993); Econometría.

[2] Wooldridge (2008); Introductory Econometrics: A Modern Approach.

[3] Greene (2005); Econometric Analysis.

[4] Gujarati & Porter (2010); Econometría.

[5] B. Hansen (2012); Econometrics.

[6] Johnston and Dinardo (1996); Econometric Methods.

44