M TODOS DE ESTIMACI N NO LINEALES · yt =β0 +β1z1t +β2z2t +εt Ecuación que es completamente...

21
MÉTODOS DE ESTIMACIÓN NO LINEALES Francisco Parra Rodríguez Doctor en Ciencias Económicas y Empresariales. UNED. INTRODUCCIÓN La teoría económica propone modelos de relación entre variables económicas, pero generalmente deja indeterminada la forma funcional de dichas relaciones, por lo que en ocasiones dichas relaciones pueden ser de tipo no lineal. La cuantificación de dichas relaciones exige un tratamiento distinto al del caso lineal, utilizando técnicas de estimación que generalmente implican un mayor coste computacional pero que a cambio ofrecen un mejor ajuste. Por ello, en el presente capítulo se abordan algunas soluciones de cálculo para cuantificar este tipo de relaciones, las cuales generalmente exigen la utilización de algoritmos de optimización numérica en los que, a partir de una expresión general que representa una función de pérdida o de ganancia, de forma iterativa se evalúa una función objetivo, que variará dependiendo del procedimiento de estimación elegido, para las distintas combinaciones de los valores numéricos de los parámetros. El resultado de la estimación final será aquel conjunto de valores paramétricos que hagan mínima o máxima (según se defina) dicha función objetivo. Las relacionales no lineales que trataremos no hacen referencia a las variables explicativas sino a los parámetros incluidos en las relaciones del modelo, ya que las primeras pueden eliminarse mediante la transformación de datos apropiada. Por ejemplo, si la ecuación que tuviéramos que estimar fuera: t t t x t x x e y t ε β β β + + + = 3 2 2 1 0 ln( 1 Bastaría con realizar los siguientes cambios de variable para poder estimar la ecuación mediante métodos lineales: t t t x t x x z e z t 3 2 2 1 ln( 1 = = De tal forma que ahora deberíamos estimar:

Transcript of M TODOS DE ESTIMACI N NO LINEALES · yt =β0 +β1z1t +β2z2t +εt Ecuación que es completamente...

MÉTODOS DE ESTIMACIÓN NO LINEALES

Francisco Parra Rodríguez Doctor en Ciencias Económicas y Empresariales. UNED .

INTRODUCCIÓN La teoría económica propone modelos de relación entre variables económicas, pero

generalmente deja indeterminada la forma funcional de dichas relaciones, por lo que en

ocasiones dichas relaciones pueden ser de tipo no lineal. La cuantificación de dichas relaciones

exige un tratamiento distinto al del caso lineal, utilizando técnicas de estimación que

generalmente implican un mayor coste computacional pero que a cambio ofrecen un mejor

ajuste.

Por ello, en el presente capítulo se abordan algunas soluciones de cálculo para cuantificar este

tipo de relaciones, las cuales generalmente exigen la utilización de algoritmos de optimización

numérica en los que, a partir de una expresión general que representa una función de pérdida o

de ganancia, de forma iterativa se evalúa una función objetivo, que variará dependiendo del

procedimiento de estimación elegido, para las distintas combinaciones de los valores numéricos

de los parámetros. El resultado de la estimación final será aquel conjunto de valores

paramétricos que hagan mínima o máxima (según se defina) dicha función objetivo.

Las relacionales no lineales que trataremos no hacen referencia a las variables explicativas sino

a los parámetros incluidos en las relaciones del modelo, ya que las primeras pueden eliminarse

mediante la transformación de datos apropiada. Por ejemplo, si la ecuación que tuviéramos que

estimar fuera:

tttx

t xxey t εβββ +++= 32210 )·ln(1

Bastaría con realizar los siguientes cambios de variable para poder estimar la ecuación mediante

métodos lineales:

ttt

xt

xxz

ez t

322

1

)·ln(

1

==

De tal forma que ahora deberíamos estimar:

tttt zzy εβββ +++= 22110

Ecuación que es completamente lineal tanto en las variables como en los parámetros.

Sin embargo, si el modelo fuera de la forma:

tx

tttexy εβββ ββ +++= 232

2110

No sería posible hacer un cambio de variable similar al que hemos propuesto anteriormente, por

lo que habrá que estimarlo mediante procedimientos de tipo no lineal.

TRANSFORMACIÓN DE MODELO DE MODELOS NO LINEALES

PARA ESTIMAR DIRECTAMENTE POR MINIMOS CUADRADOS

ORDINARIOS.

Aunque el método de Mínimos Cuadrados Ordinarios (MCO) se utiliza exclusivamente en la

estimación de modelos de dependencia lineal, este método puede utilizarse en todos aquellos

modelos de ecuaciones que pueden transformarse en funciones lineales.

Son ejemplos de funciones no lineales que pueden transformarse a lineales, las siguientes:

a) Función Polinómica

La función polinómica:

ktkttt XXXY ββββ ++++= ...2

210

se transforma en lineal:

ktkttt XXXY ββββ ++++= ...22110

Haciendo:

1

22

t t

t t

kkt t

X X

X X

X X

=

=

=

M

b) Función Potencial

La función potencial btt aXY = se transforma en lineal tomando logaritmos tal que:

tt XbaY logloglog +=

y se estima:

*10

*

ttXY ββ +=

Haciendo:

tt

tt

XX

YY

log

log*

*

=

=

En consecuencia:

0βea = y 1β=b

c) Función Exponencial

La función exponencial tXt abY = se transforma en lineal tomando logaritmos tal que:

bXaY tt logloglog +=

y se estima:

ttXY 10

* ββ +=

Haciendo:

* logt tY Y=

En consecuencia 0βea = y 1βeb =

d) Función Logarítmica

La función logarítmica tt XbaY log+= puede estimarse haciendo * logt tX X= , aplicando

MCO después a la expresión:

*10 ttXY ββ +=

En consecuencia 0β=a y 1β=b

MÍNIMOS CUADRADOS NO LINEALES

El método de Mínimos Cuadrados No Lineales, es una generalización del procedimiento del

método de MCO a la estimación de modelos lineales, de hecho las hipótesis de partida del

método mínimo-cuadrático no exige en ningún momento la linealidad del modelo, si bien la

resolución analítica del mismo se complica bastante cuando el modelo no es lineal.

Consideremos la siguiente expresión de un modelo no lineal:

itt XfY εβ += ),( (1.1.)

Donde f es una función cuya primera derivada es no lineal en β.

El método de Mínimos Cuadrados No Lineales, al igual que su homólogo lineal, trata de

minimizar el sumatorio de los errores del modelo al cuadrado, es decir:

[ ]∑∑==

−==T

ttt

T

tt XfYSR

1

2

1

2 );()(Min βεββ

(1.2.)

Derivando la expresión anterior, obtenemos las condiciones de primer y segundo orden,

necesarias y suficientes para la obtención del mínimo:

Condición de 1º orden

[ ] 0);(

·);(2)(

1

=∂

∂−−=

∂∂

∑=

T

t

ttt

XfXfY

SR

βββ

ββ

(1.3.)

Condición de 2º orden

∂∂∂

−−∂

∂∂

∂=

∂∂∂

∑∑==

T

t

ttt

T

t

tt XfXfY

XfXfSR

1

2

1

2

'

);())·;((

'

);(·

);(2

'

)(

ββββ

ββ

ββ

βββ

(1.4.)

Matriz que debe ser definida positiva.

Ejemplo 1.

Sea el modelo:

tx

tteY εββ β ++= 2

10

Minimizamos la expresión del sumatorio de los residuos del modelo al cuadrado tal que:

[ ]∑∑==

+−==T

t

xt

T

tt

teYSR1

210

1

2 )()( Min 2ββ

ββεβ

Derivando la expresión anterior, tenemos que:

20 1

10

( )2 ( ) 0t

Tx

tt

SRY eββ β β

β =

∂ = − − − = ∂ ∑

2 20 1

11

( )2 ( ) 0t t

Tx x

tt

SRY e eβ ββ β β

β =

∂ = − − − = ∂ ∑

2 20 1 1

12

( )2 ( ) 0t t

Tx x

t tt

SRY e x eβ ββ β β β

β =

∂ = − − − = ∂ ∑

Las ecuaciones obtenidas no poseen una solución analítica directa por lo que es necesario un

método iterativo para obtener los valores de los parámetros βi. Uno de los métodos utilizados

para resolver este tipo de problemas es el algoritmo de Newton-Raphson que pasamos a

examinar a continuación.

Algoritmo de Newton-Raphson

Supongamos que disponemos de una estimación iβ̂ del mínimo β̂ de la función );( βtXf ,

cuyas derivadas son continuas. Si consideramos un entorno del punto iβ̂ , el valor numérico de f

en un punto de dicho entorno puede aproximarse mediante un desarrollo en serie de Taylor de

orden 2 tal que:

[ ] [ ] )ˆ()ˆ()'ˆ(2

1)ˆ()ˆ()ˆ()();( 2'

iiiiiit fffMXf βββββββββββ −∇−+−∇+=≅ (1.5.)

Donde )ˆ( if β∇ y )ˆ(2if β∇ son, respectivamente, el gradiente (vector k x 1) y la matriz hessiana

(matriz simétrica de orden k x k) de la función )(βf evaluados en el punto iββ ˆ= .

Podemos mejorar la estimación actual, iβ̂ , reemplazándola por aquel vector que minimice la

expresión cuadrática anterior tal que:

[ ] 0)ˆ()ˆ()ˆ( *2 =−∇+∇=∂∂

iii ffM βββββ

(1.6.)

De donde obtenemos que:

[ ] )ˆ()ˆ(ˆˆ 12*1 iiii ff βββββ ∇∇−==

+ (1.7.)

La expresión (11.7) permite aproximarse al valor desconocido del vector de parámetros β a

partir de un vector inicial de estimaciones iβ̂ suficientemente próximo a él.

Debe observarse que el punto *β que escogemos como nueva estimación minimiza realmente

el valor de f en el entorno de iβ̂ si la matriz hessiana )ˆ(2if β∇ es definida positiva, lo que estará

garantizado si f es convexa en el punto iβ̂ (es decir, si dicho punto estaba ya lo suficientemente

próximo a un mínimo local de f).

El procedimiento iterativo mediante el que se sustituyen las sucesivas estimaciones obtenidas a

través de la expresión (11.7) como punto de partida en la siguiente etapa del procedimiento

hasta que se satisfagan los criterios de convergencia que el investigador determine (por ejemplo,

que la diferencia entre las estimaciones de los parámetros obtenidos en cada etapa sea inferior a

una determinada cantidad) es lo que se conoce como algoritmo de Newton-Raphson.

La utilización de este algoritmo exige que se verifiquen dos supuestos: por un lado, deben

existir las derivadas que en él aparecen; asimismo, el hessiano de la función debe ser invertible.

El algoritmo de Newton-Raphson permite obtener numéricamente el estimador mínimo-

cuadrático de un modelo en el que Y es una función no lineal de β. En tal caso, la función

objetivo será la que vimos en (11.2), es decir:

[ ]∑=

−==T

ttt XfYSRf

1

2);()()( βββ (1.8.)

Se trata de hallar aquel vector de coeficientes β̂ que minimiza la suma residual al cuadrado,

)(βSR . Para ello tomaremos las expresiones del gradiente y de la matriz hessiana que veíamos

anteriormente:

[ ] 0);(

·);(2)(

1

=∂

∂−−=

∂∂

∑=

T

t

ttt

XfXfY

SR

βββ

ββ

(1.9.)

∂∂∂

−−∂

∂∂

∂=

∂∂∂

∑∑==

T

t

ttt

T

t

tt XfXfY

XfXfSR

1

2

1

2

'

);())·;((

'

);(·

);(2

'

)(

ββββ

ββ

ββ

βββ

(1.10.)

Y las sustituiremos en la expresión (11.7) que define las etapas del algoritmo tal que:

[ ]

∂∂

∂∂∂

−−∂

∂∂

∂+= ∑∑∑

=

==+

T

t

ttt

T

t

tT

t

ttii

XfXfY

XfXfY

XfXf

1

1

1

2

11

);(·);(·

'

);())·;((

'

);(·

);(ˆˆβ

ββββ

βββ

ββ

βββ

Una vez se haya logrado la convergencia del algoritmo, se toma como matriz de varianzas y

covarianzas del estimador obtenido, el producto de la estimación de 2εσ y la inversa de la matriz

hessiana:

[ ] 122 )ˆ(−

∇ if βσ ε

Por lo que la distribución asintótica del vector de estimadores será:

[ ]

−122 )ˆ(,ˆii fN βσβ ε

Ejemplo 2.

Veamos cómo se aplicaría algoritmo de Newton-Raphson al modelo que veíamos en el ejemplo

11.1 tomado en desviaciones respecto a la media. En primer lugar, para poder trabajar con la

expresión (11.7) necesitamos calcular el gradiente y la matriz hessiana de la función objetivo tal

que:

[ ]∑=

−==T

t

xt

teySRf1

21

2)()( ββββ

( )( )[ ]∑=

−−=∇T

t

xt

xx ttt eyeef1

11222 , 2)( βββ βββ

−−−=∇ ∑

=

T

t txx

ttxx

t

txx

tx

yeexyeex

yeexef

tttt

ttt

1 12

11

12

2

)2()2(

)2(2)(

2222

222

ββββ

βββ

βββββ

Por lo que la expresión para obtener las sucesivas iteraciones del algoritmo de Newton-Raphson

es:

( )

−−−+

=

∑∑

=

=+

t

t

t

tttt

tttx

t

T

tx

xT

t txx

ttxx

t

txx

tx

ii

eye

e

yeexyeex

yeexe2

2

2

2222

222 ˆ1

1

ˆ1

1ˆ2

ˆ1

ˆˆ2

2

1

12

1 ˆˆ

·)ˆ2(ˆ)ˆ2(

)ˆ2(ˆ

ˆ

ˆ

ˆ ββ

β

ββββ

ββββ

βββββ

ββ

ββ

ESTIMADOR DE MÁXIMA VEROSIMILITUD

Si el lector tiene algunos conocimientos de Estadística Teórica seguramente sabrá que la

estimación por Máxima Verosimilitud precisa del establecimiento de un supuesto acerca de la

distribución del término de error, a partir de la cual construiremos una función de verosimilitud

que deberemos maximizar.

En general, supondremos que el término de error del modelo, εt, sigue una distribución Normal

con media 0 y varianza, 2εσ ; en ese caso, la función de verosimilitud muestral será:

[ ] [ ]∑=

−−

=

−−

== ∏

T

t

tt XfYT

T

t

XfY

eeL 1

22

22

);(2

12

21

);(2

1

2

2

2

1

2

1),(

βσ

ε

βσ

ε

εεε

πσπσσβ (1.11.)

El logaritmo de la función evaluado en ( )2ˆ,ˆ εσβ es:

[ ] )ˆ(ˆ2

1ˆln

2-ln2

2)ˆ;(

ˆ2

1ˆln

2-ln2

2)ˆ,ˆ(ln

2

2

1

2

2

22 βσ

σπβσ

σπσβε

εε

εε SRTT

XfYTT

LT

tt −−=∑ −−−=

=

Como puede apreciarse, tal y como cabía esperar el parámetro 2ˆεσ no depende de ninguno de

los parámetros del vector β̂ ; por tanto, para maximizar la función de verosimilitud bastará con

seleccionar aquel vector β̂ que minimice la suma residual )ˆ(βSR . Las condiciones de

maximización de la función de verosimilitud serán por tanto:

[ ]∑ =∀=∂

∂−=

∂∂

−=∂

∂=

T

ti

ititt

i

i

i

i kif

XfYSRL

122

2

,...,2,1 0ˆ

)ˆ()ˆ;(

ˆ1

ˆ)ˆ(

·ˆ2

)ˆ,ˆ(ln

βββ

σββ

σβσβ

εε

ε

(1.12.)

[ ]∑ =−+−=∂

∂=

T

ttt XfY

TL

1

2

422

2

0)ˆ;(ˆ2

1ˆ2ˆ

)ˆ,ˆ(ln βσσσ

σβεεε

ε (1.13.)

Las soluciones del sistema de ecuaciones anterior proporcionan las estimaciones de Máxima

Verosimilitud del vector β y el parámetro 2εσ bajo la hipótesis de Normalidad en el término de

error.

Como puede apreciarse, los resultados obtenidos coinciden el estimador de Mínimos Cuadrados

No Lineales; asimismo, de la segunda condición de optimalidad se deduce que la estimación de

2εσ es:

[ ]T

SR

T

XfYT

ttt )ˆ()ˆ;(

ˆ 1

2

2 ββσ ε =

∑ −= =

Expresión, como vemos, análoga a la obtenida para el caso lineal.

Finalmente, la expresión de la matriz de covarianzas del estimador de Máxima Verosimilitud

puede aproximarse, para muestras grandes, mediante la inversa de la matriz de información.

Dicha matriz viene dada por1:

∂∂

∂∂

=

4

'

22

20

01

),(

ε

εε

σ

ββσσβT

ff

I

k

k

(1.14.)

Si invertimos dicha matriz y sustituimos los valores de los parámetros desconocidos por sus

correspondientes valores estimados tenemos que:

1 El desarrollo de la demostración que conduce a esta expresión queda fuera de las pretensiones de este texto.

∂∂

∂∂

=

T

ff

Var

k

k

4

1'2

2

ˆ20

0ˆˆˆ

)ˆ,ˆ(

ε

εε

σ

ββσ

σβ (1.15.)

Siempre que

∂∂

∂∂

ββff

'

no sea una matriz singular.

APROXIMACIÓN LINEAL DE TAYLOR

Otra manera de abordar los modelos no lineales es mediante aproximaciones lineales. Una

aproximación lineal es una aproximación a una función cualquiera utilizando una

transformación lineal. Según el Teorema de Taylor, se puede aproximar una función derivable

en un entorno reducido alrededor de un punto )(a , mediante un polinomio cuyos coeficientes

dependen de las derivadas de la función en ese punto, es decir:

Raxn

afax

afax

afafxf n

n

+−++−+−+= )(!

)(...)(

!2

)()(

!1

)()()(

)(2

)2('

Lo que da lugar a la siguiente aproximación lineal:

Eaxafafxf +−+= ))(()()( '

Donde E es el error de la aproximación.

Consideremos, entonces, el modelo de regresión no lineal siguiente:

itt XfY εβ += ),(

La transformación lineal la función ),( βtXf , alrededor de una estimación inicial, β̂ mediante

la aproximación lineal de Taylor sería:

tt

tt

XfXfY εββ

βββ +−

∂∂

+≅ )ˆ(ˆ

)ˆ;()ˆ;(

'

Si simplificamos la notación como:

'

ˆ)ˆ;(

)ˆ(

∂∂

ββ tXfz

tenemos

tt zXfY εββββ +−+≅ )ˆ()ˆ()ˆ;( '

(1.16.)

operando

ttt zzXfY εβββββ +=+− )ˆ(ˆ)ˆ()ˆ;( (1.17.)

Obteniéndose el siguiente modelo lineal:

tt zY εββ +⋅≅ )ˆ(*

(1.18.)

Donde βββ ˆ)ˆ()ˆ;(* zXfYY ttt +−=

Para un valor determinado de β̂ tanto *Y como )ˆ(βz son observables, y el modelo (1.18)

posee como estimador mínimo cuadrático a:

[ ] *1)ˆ()ˆ()'ˆ(

~tYzzz ββββ

−=

El desarrollo práctico sería el siguiente: debemos plantear una aproximación numérica inicial de

β̂ ; a continuación generar las observaciones numéricas para las variables *Y, )ˆ(βz y proceder a

estimar el modelo (11.18) por MCO obteniendo nuevas estimaciones numéricas paraβ̂ ( )β~ .

Con ellas, calculamos de nuevo las variables *Y, )ˆ(βz e iteramos el procedimiento hasta

alcanzar determinada convergencia.

Si desarrollamos la expresión de los estimadores obtenidos mediante MCO tenemos que:

[ ][ ] ( )

[ ] t

tt

t

zzz

zXfYzzz

Yzzz

εββββ

ββββββ

ββββ

ˆ)ˆ()ˆ()ˆ(ˆ

ˆ)ˆ()ˆ;()ˆ()ˆ()ˆ(

)ˆ()ˆ()ˆ(~

1'

1'

*1'

+=

+−=

==

(1.19.)

La expresión (1.19.) proporciona de forma directa los estimadores MCO del modelo linealizado

mediante el desarrollo de Taylor, sin más que sustituir los valores indicados y teniendo en

cuenta que tε̂ es el residuo obtenido al sustituir en el modelo original la estimación inicial, β̂ .

La estimación del parámetro 2ˆεσ puede obtenerse de manera análoga al caso lineal tal que:

kT −= εεσ ε

~'~ˆ 2

(1.20.)

Siendo )~,(~ βε XfY −=

Finalmente, si existe la inversa de [ ])ˆ()ˆ( ' ββ zz podemos derivar la distribución de probabilidad

del estimador β~

que será:

[ ]

−1'2 )ˆ()ˆ(, ββσβ ε zzN

(1.21.)

Ejemplo 3.

Si consideramos, ahora, la función

tttttt uxfuxxy +=++= ),(22

1 θββ

Con )(βθ = , cuyo gradiente es:

( )'21 2

),(tt

t xxxf βθ

θ+=

∂∂

Entonces,

( )ttttttt

tttttttt

xyxxxxy

xxxxyzxfyy

22

22

122

1

2122

1*

ˆˆ2ˆˆˆ

ˆˆ2ˆˆˆ)ˆ()ˆ,(

βββββ

ββββθθθ

+=++−−=

++−−=+−=,

tt xxz 211ˆ2)ˆ( βθ +=

el modelo lineal a estimar resultará:

tt zy εθβ += )ˆ(1* (1.22)

Vamos a aplicar dicho modelo a estimar una ecuación para los siguientes datos de la economía

española:

PIB(millones de euros moneda constante)

Ocupados estudios básicos (miles)

Ocupados estudios superiores (miles)

1991 342.598 10.284 2.773

1992 368.987 9.967 2.856

1993 381.747 9.333 2.960

1994 406.011 9.112 3.096

1995 447.205 9.155 3.357

1996 473.855 9.124 3.747

1997 503.921 9.300 4.046

1998 539.493 9.553 4.351

1999 579.942 9.964 4.725

2000 630.263 10.293 5.213

2001 680.678 10.556 5.590

2002 729.206 10.734 5.896

2003 782.531 11.103 6.193

2004 840.106 11.329 6.641

2005 905.455 11.743 7.231

Partimos de un valor de 1ˆ =β , y calculamos las variables transformadas:

ttt xyy 22* β̂+= tt xxz 211

ˆ2)ˆ( βθ +=

345.371 15.830 371.842 15.678 384.707 15.254 409.107 15.303 450.562 15.869 477.602 16.619 507.967 17.391 543.844 18.255 584.667 19.415 635.476 20.719 686.268 21.736 735.102 22.527 788.724 23.489 846.747 24.612 912.686 26.204 Utilizando MCO estimamos (1.22):

tt zy εθ += )ˆ(67,30 1*

Transformamos de nuevo las variables utilizando ahora 67,30ˆ̂ =β , y estimamos de nuevo por

MCO el modelo (1.22):

ttt xyy 22* β̂+= tt xxz 211

ˆ2)ˆ( βθ +=

2.950.626 180.377 3.054.324 185.102 3.165.652 190.897 3.317.346 198.986 3.604.106 215.045 3.997.557 238.937 4.308.575 257.435 4.631.308 276.417 5.023.700 299.782 5.532.198 329.993 5.937.493 353.400 6.274.091 372.366 6.606.664 390.947 7.085.694 418.660 Obtenemos

tt zy εθ += )ˆ(81,16 1*

Seguimos iterando hasta y alcanzamos la convergencia al cabo de la quinta iteración:

Iteración β Diferencia

1 30,67 2 16,81 -13,86 3 11,42 -5,38 4 10,26 -1,16 5 10,20 -0,06

La ecuación estimada sería por tanto:

tttt uxxy ++= 22

1 20,1020,10

APROXIMACIÓN POR SERIES DE FOURIER El desarrollo de series de Fourier también permite aproximar arbitrariamente cerca tanto a la

función como a sus derivadas sobre todo el dominio de definición de las mismas. La idea que

subyace en este tipo de aproximaciones (que se denominan semi-no-paramétricas) es ampliar el

orden de la base de expansión (el número de ciclos teóricos ó armónicos en que desarrollamos el

polinomio), cuando el tamaño de la muestra aumenta, hasta conseguir la convergencia asintótica

de la función aproximante a la verdadera función generadora de los datos y a sus derivadas2.

Un polinomio de Fourier viene dado por la expresión:

( ) ( )( )∑=

++k

jojoj tjwvtjwu

a

1

sincos2

Donde k es el número de ciclos teóricos o armónicos que consideramos, siendo el máximo n/2.

nw

π20 = es la frecuencia fundamental (también denominada frecuencia angular fundamental).

t toma los valores enteros comprendidos entre 1 y n (es decir, t = 1, 2, 3, ...n).

Los coeficientes de los armónicos vienen dados por las expresiones:

( )( ) ( )∑∑∑===

===n

iioij

n

iiij

n

ii jtwy

nvjtwy

nuy

n

a

110

1

sin2

,cos2

,2

2

La aproximación a una función no periódica )(xg por una serie de expansión de Fourier se

realiza en Gallart (1981) añadiendo es esta un término lineal y cuadrático. De esta forma que la

aproximación univariada se escribe como:

( ) ( ) ( )jxsvjxucxbxaxg j

J

jj sincos

2

1/

1

2 −+++= ∑=

θ (1.23)

El vector de parámetros es ( )JJ vuvucba ,,...,,,, 11=θ de longitud JK 23+= .

Suponiendo que los datos siguieran el modelo iii exgy += )( para i=1,2,…,n estimariamos

θ por mínimos cuadrados, minimizando

( ) ( ) ( )[ ]∑=

−=n

iiKin xgyns

1

2/1 θθ

2 Gallant, A. R.(1981) "On the Bias in Flexible Functional Forms and an Essentially Unbiased Form." J. Econometrics 15(1981):211-45. Gallant, A. R.(1984) "The Fourier Flexible Form." Amer. J. Agr. Econ. 66(1984):204-15

Dado que la variable exógena ix no esta expresada en forma periódica, debe de transformase o

normalizarse en un intervalo de longitud menor que π2 , [ ]π2,0 .

Considerando 0θ la solución al problema de minimización anterior, podríamos obtener

diferentes soluciones minimocuadráticas para )(xg , considerando diferentes valores de n y K y

elegir aquel de ellos que mejor aproxime, )(xg , )()/( xgdxd , y )()/( 22 xgdxd . La norma de

Sobolev permite evaluar dichos errores de aproximación.

La expresión de la primera y segunda derivada de la función (1.23) son las siguientes:

( ) ( ) ( )( )∑=

−−++=J

jjjx jjxvjxucxbxgD

1

cossin/θ (1.24)

( ) ( ) ( )( )∑=

+−+=J

jjjx jjxsenvjxucxgD

1

22 cos/θ (1.25)

La aproximación multivariada se describe:

( ) ( ) ( )[ ]∑ ∑=

−++++=A

jjo xjkvxjkuuCxxxbuxg1

''0 sincos2'

2

1'/

ααααααθ

Donde ∑=

−=A

akkuC1

'0

ααα . La regla de formación de la secuencia { }αk está dada en Gallant

(1981) y en Gallant (1982) para diferentes sistemas.

Ejemplo 4

Vamos a estimar una forma de flexibilidad global para el PIB trimestral de España, en índices

de volumen ajustados a estacinalidad y calendario, y utilizando como regresor los puestos de

trabajo equivalentes a tiempo completo, todas las series están obtenidas de la Contabilidad

Nacional Trimestral de España del INE.

Tabla 1

Contabilidad Nacional Trimestral Base 2000

Datos corregidos de estacionalidad y calendario.

Puestos de trabajo equivalentes a tiempo completo Producto interior bruto

1995TI 12974 81,35

1995TII 13027 81,62

1995TIII 13043 81,85

1995TIV 13036 82,28

1996TI 13021 82,75

1996TII 13123 83,44

1996TIII 13310 84,14

1996TIV 13358 84,68

1997TI 13458 85,57

1997TII 13630 86,36

1997TIII 13756 87,35

1997TIV 13828 88,69

1998TI 13974 89,5

1998TII 14186 90,35

1998TIII 14391 91,43

1998TIV 14481 92,24

1999TI 14655 93,14

1999TII 14869 94,56

1999TIII 15026 95,99

1999TIV 15132 97,08

2000TI 15360 98,56

2000TII 15592 99,65

2000TIII 15867 100,36

2000TIV 15859 101,44

2001TI 15972 102,51

2001TII 16106 103,17

2001TIII 16290 104,12

2001TIV 16333 104,79

2002TI 16354 105,25

2002TII 16530 106,14

2002TIII 16702 106,79

2002TIV 16608 107,62

2003TI 16763 108,61

2003TII 16871 109,33

2003TIII 17108 110,02

2003TIV 17053 111,03

2004TI 17230 111,81

2004TII 17291 112,71

2004TIII 17574 114,01

2004TIV 17524 114,8

2005TI 17646 115,85

2005TII 17874 116,93

2005TIII 18225 117,93

2005TIV 18136 119,02

2006TI 18280 120,14

2006TII 18493 121,41

2006TIII 18702 122,48

2006TIV 18692 123,83

2007TI 18887 125,04

2007TII 19080 126,21

2007TIII 19253 127,13

2007TIV 19148 128,14

Fuente: INE

La aproximación utilizada es la descrita en (1.23) con la variable dependiente transformada en

un intervalo menor a 2π utilizando la siguiente función de transformación )max(

2

X

Xx

⋅= π . En la

ecuación se utilizan 7 parámetros, la constante, el asociado x , el asociado a 22x y los

parámetros asociados a los dos primeros armónicos. El resultado de la estimación mínimo

cuadrática de (1.23) aparecen en la tabla adjunta:

x 22x

COS (x) SENO(x) COS(2x) SENO(2x) ( )θ/xg

4,2340 17,9271 -0,4603 -0,8878 -0,5762 0,8173 81,645

4,2513 18,0739 -0,4449 -0,8956 -0,6042 0,7969 82,087

4,2566 18,1183 -0,4402 -0,8979 -0,6124 0,7905 82,220

4,2543 18,0989 -0,4423 -0,8969 -0,6088 0,7933 82,162

4,2494 18,0572 -0,4466 -0,8947 -0,6010 0,7992 82,038

4,2827 18,3413 -0,4166 -0,9091 -0,6529 0,7575 82,875

4,3437 18,8677 -0,3604 -0,9328 -0,7402 0,6724 84,356

4,3594 19,0040 -0,3457 -0,9383 -0,7609 0,6488 84,725

4,3920 19,2896 -0,3149 -0,9491 -0,8016 0,5978 85,480

4,4481 19,7858 -0,2612 -0,9653 -0,8636 0,5043 86,735

4,4892 20,1534 -0,2213 -0,9752 -0,9021 0,4316 87,622

4,5127 20,3649 -0,1983 -0,9801 -0,9213 0,3888 88,118

4,5604 20,7972 -0,1514 -0,9885 -0,9541 0,2993 89,101

4,6296 21,4330 -0,0827 -0,9966 -0,9863 0,1649 90,486

4,6965 22,0569 -0,0159 -0,9999 -0,9995 0,0318 91,790

4,7259 22,3337 0,0135 -0,9999 -0,9996 -0,0269 92,357

4,7826 22,8736 0,0702 -0,9975 -0,9901 -0,1400 93,446

4,8525 23,5465 0,1396 -0,9902 -0,9610 -0,2765 94,789

4,9037 24,0464 0,1902 -0,9818 -0,9277 -0,3734 95,785

4,9383 24,3868 0,2240 -0,9746 -0,8996 -0,4366 96,466

5,0127 25,1273 0,2958 -0,9552 -0,8250 -0,5652 97,958

5,0884 25,8921 0,3672 -0,9301 -0,7303 -0,6832 99,525

5,1782 26,8134 0,4491 -0,8935 -0,5966 -0,8026 101,453

5,1756 26,7864 0,4468 -0,8946 -0,6008 -0,7994 101,396

5,2124 27,1695 0,4795 -0,8776 -0,5402 -0,8415 102,210

5,2562 27,6273 0,5174 -0,8558 -0,4647 -0,8855 103,191

5,3162 28,2621 0,5678 -0,8232 -0,3552 -0,9348 104,566

5,3302 28,4115 0,5793 -0,8151 -0,3288 -0,9444 104,891

5,3371 28,4847 0,5849 -0,8111 -0,3159 -0,9488 105,050

5,3945 29,1010 0,6305 -0,7762 -0,2050 -0,9788 106,397

5,4507 29,7098 0,6730 -0,7396 -0,0941 -0,9956 107,730

5,4200 29,3763 0,6500 -0,7599 -0,1550 -0,9879 107,000

5,4706 29,9272 0,6876 -0,7261 -0,0544 -0,9985 108,206

5,5058 30,3141 0,7128 -0,7014 0,0161 -0,9999 109,050

5,5832 31,1718 0,7648 -0,6442 0,1699 -0,9855 110,909

5,5652 30,9717 0,7531 -0,6579 0,1345 -0,9909 110,477

5,6230 31,6179 0,7899 -0,6133 0,2478 -0,9688 111,864

5,6429 31,8422 0,8019 -0,5974 0,2861 -0,9582 112,341

5,7352 32,8931 0,8536 -0,5209 0,4573 -0,8893 114,538

5,7189 32,7061 0,8450 -0,5348 0,4280 -0,9038 114,152

5,7587 33,1631 0,8656 -0,5007 0,4985 -0,8669 115,093

5,8332 34,0256 0,9004 -0,4350 0,6216 -0,7834 116,835

5,9477 35,3751 0,9443 -0,3292 0,7832 -0,6217 119,491

5,9187 35,0305 0,9343 -0,3565 0,7458 -0,6662 118,819

5,9656 35,5890 0,9500 -0,3122 0,8050 -0,5932 119,908

6,0352 36,4232 0,9694 -0,2455 0,8795 -0,4760 121,533

6,1034 37,2511 0,9839 -0,1789 0,9360 -0,3519 123,171

6,1001 37,2113 0,9833 -0,1821 0,9337 -0,3580 123,091

6,1637 37,9917 0,9929 -0,1192 0,9716 -0,2366 124,686

6,2267 38,7721 0,9984 -0,0564 0,9936 -0,1127 126,372

6,2832 39,4784 1,0000 0,0000 1,0000 0,0000 128,013

6,2489 39,0490 0,9994 -0,0343 0,9977 -0,0685 127,000

Los representación gráfica de los resultados obtenidos aparece en la figura nº1.

Figura nº 1

75

85

95

105

115

125

135

19

95TI

19

96TI

19

97TI

19

98TI

19

99TI

20

00TI

20

01TI

20

02TI

20

03TI

20

04TI

20

05TI

20

06TI

20

07TI

Aproximación FFF

PIB (IV)

A continuación figuran los coeficientes obtenidos en la estimación MCO de la expansión de

Fourier:

coeficientes COEFICIENTE VARIANZA

SENO (2X) 25,7726 48,4461

COS (2X) 30,5090 27,1992

SENO (x) -452,1873 644,8903

COS(x) 153,4978 389,0007

22x

163,5181 267,6648

x -1623,8053 2811,5767

Constante 3691,2378 6689,6026