Post on 20-Sep-2018
INSTITUTO POLITÉCNICO NACIONAL
ESCUELA SUPERIOR DE ECONOMÍA
SECCIÓN DE ESTUDIOS DE POSGRADO E INVESTIGACIÓN
PREDICCIÓN DE CRISIS FINANCIERAS A TRAVÉS DE LA VOLATILIDAD IMPLÍCITA DEL PRECIO DE LAS
OPCIONES, ASUMIENDO DISTRIBUCIONES
α-ESTABLES
T E S I S
QUE PARA OBTENER EL GRADO DE
DOCTOR EN CIENCIAS ECONÓMICAS
P R E S E N T A:
ROMÁN RODRÍGUEZ AGUILAR
MÉXICO, D.F. NOVIEMBRE DE 2013
DEDICATORIA
A las universidades públicas que son un pilar fundamental en el origen del conocimiento y
desarrollo en este país. Por que la única forma de mejorar las condiciones de pobreza y
marginación en México es a través de la educación de su pueblo, dotándolo de
conocimientos que le permitan eliminar cadenas en su pensamiento, restricciones de clase y
sobre todo los círculos de pobreza en que nace y se desarrolla.
A mis hermanos que han sido mis compañeros de vida, seguramente compartiremos la
eternidad.
A todos aquellos que de alguna manera apoyaron la conclusión de mi doctorado y también
a todos aquellos que fueron un obstáculo, por qué al final las restricciones se transforman
en incentivos.
Al Dr. Salvador Cruz Aké por su apoyo incondicional en la elaboración de este trabajo y al
comité tutorial por su revisión y valiosas observaciones.
ÍNDICE GENERAL
ÍNDICE DE GRÁFICAS Y CUADROS
i-ii
RESUMEN
iii
ABSTRACT
iv
INTRODUCCIÓN
v-viii
CAPÍTULO I. LAS CRISIS FINANCIERAS INTERNACIONALES
1-45
1.1 Las crisis económicas y la globalización de los mercados financieros
1.2 Las crisis del neoliberalismo 1.2.1 La crisis en México (1995) 1.2.2 La crisis en Asia (1997) 1.2.3 La crisis en Rusia (1998) 1.2.4 La crisis en Brasil (1999) 1.2.5 La crisis en Argentina (2001) 1.2.6 La crisis hipotecaria en Estados Unidos (2007) 1.2.7 La crisis en la Unión Europea (2008)
1.3 La necesidad de un nuevo orden financiero internacional CAPÍTULO II. MODELOS DE CRISIS FINANCIERAS 43-73 2.1 La modelación económica de las crisis
2.2 Modelos de primera generación 2.3 Modelos de segunda generación 2.4 Modelos de tercera generación 2.5 Modelos empíricos 2.6 La teoría económica y las crisis: hacia la construcción de nuevos enfoques
CAPÍTULO III. LAS DISTRIBUCIONES α-ESTABLES, EL
COEFICIENTE DE HURST Y LA ESTADÍSTICA MULTIVARIADA
74-120
3.1 Las distribuciones α-estables
3.2 Valuación de opciones en tiempo continuo con distribuciones α-estables 3.3 La volatilidad implícita
3.4 El movimiento browniano fraccional, el coeficiente de Hurst y el análisis de R/S
3.4.1 El movimiento browniano fraccional y el coeficiente de Hurst 3.4.2 El contraste de Lo
3.5 Distancias estadísticas y técnicas multivariadas CAPÍTULO IV. MEDIDAS DE ALERTA TEMPRANA PARA EL ANÁLISIS DE CRISIS FINANCIERAS
121-167
4.1 Estimación del coeficiente de Hurst y el parámetro α para caracterizar periodos de crisis
4.1.1 El coeficiente de Hurst
4.1.2 El parámetro α
4.2 El coeficiente de Hurst y el parámetro α como indicadores de alerta temprana
4.2.1 Coeficiente de Hurst
4.2.2 Parámetro α
4.2.3 Indicadores de alerta temprana
4.3 Valuación de opciones de tipo de para series con presencia de colas pesadas utilizando la distribución α-estable
CONCLUSIONES 168-171
REFERENCIAS BIBLIOGRÁFICAS 172-178
ANEXOS
179-189
A. Resultados de la valuación α-estable y normal
B. Griegas estimadas para la opción de compra
C. Griegas estimadas para la opción de venta
D. Volatilidad implícita y el parámetro α
E. Código en Mathematica para la estimación del Rango Re-escalado
F. Código en Mathematica para la estimación del Contraste de Lo
G. Índice Global de Disimilaridad Trimestral
H. Índice Global de Disimilaridad Anual
I. Publicaciones y participaciones en Congresos
i
ÍNDICE DE GRÁFICAS Y CUADROS Gráfica 1. Periodos de crisis en el mundo en las últimas décadas 6
Gráfica 2. Promedios móviles del crecimiento del PIB: América Latina y el
Caribe y Estados Unidos. 1961-2011
8
Gráfica 3. Indicadores macroeconómicos seleccionados, México 1980-2012 14
Gráfica 4. Promedios móviles del crecimiento del PIB: Zona del euro y
Estados Unidos. 2000-2011
38
Gráfica 5. Densidad α-estable con parámetros de referencia α=1.5, β=0, γ=1
y µ=0.
82
Gráfica 6. Sonrisa de volatilidad 103
Gráfica 7. Tipo de cambio y sus rendimientos (1992-1995) 124
Gráfica 8. Coeficiente de Hurst periodo I 124
Gráfica 9. Tipo de cambio y sus rendimientos (1996-1999) 125
Gráfica 10. Coeficiente de Hurst periodo II 126
Gráfica 11. Tipo de cambio y sus rendimientos (2000-2003) 127
Gráfica 12. Coeficiente de Hurst periodo III 127
Gráfica 13. Tipo de cambio y sus rendimientos (2004-2007) 128
Gráfica 14. Coeficiente de Hurst periodo IV 129
Gráfica 15. Tipo de cambio y sus rendimientos (2008-2011) 130
Gráfica 16. Coeficiente de Hurst periodo V 130
Gráfica 17. El coeficiente de Hurst y el parámetro α 137
Gráfica 18. Coeficiente de Hurst mensual (1992-2012) 139
Gráfica 19. Coeficiente de Hurst trimestral (1992-2012) 140
Gráfica 20. Coeficiente de Hurst anual (1992-2011) 140
Gráfica 21. Parámetro α mensual (1992-2012) 142
Gráfica 22. Parámetro α trimestral (1992-2012) 142
Gráfica 23. Parámetro α anual (1992-2011) 143
Gráfica 24. Disimilaridades mensuales (1992-2012) 145
Gráfica 25. Disimilaridades trimestrales (1992-2012) 147
Gráfica 26. Disimilaridades anuales (1992-2011) 148
ii
Gráfica 27. Índice Global de Disimilaridad mensual (1992-2012) 149
Gráfica 28. Índice Global de Disimilaridad trimestral (1992-2012) 150
Gráfica 29. Índice Global de Disimilaridad anual (1992-2012) 151
Gráfica 30. Rendimientos logarítmicos del tipo de cambio (2008-2009) 154
Gráfica 31. Histograma de los rendimientos diarios del tipo de cambio (2008-2009)
154
Gráfica 32. Gráfico Q-Q 155
Gráfica 33. Ajuste de las colas de la distribución 158
Gráfica 34. Ajuste de la función de distribución acumulada 159
Gráfica 35. Valuación opción de compra: normal vs α-estable 161
Gráfica 36. Valuación opción de venta: normal vs α-estable 162
Gráfica 37. Delta y Gama, normal vs α-estable 163
Gráfica 38. Rho, normal vs α-estable 164
Gráfica 39. Sonrisa de volatilidad 166
Gráfica 40. El efecto del parámetro α en la volatilidad implícita 166
Cuadro 1. Ventanas de tiempo consideradas 122
Cuadro 2. Coeficiente de Hurst estimado 132
Cuadro 3. Parámetros de la distribución α-estable estimados 135
Cuadro 4. El coeficiente de Hurst y el parámetro α 136
Cuadro 5. Ajuste de los rendimientos logarítmicos del tipo de cambio a la
distribución α-estable
157
Cuadro 6. Prueba de bondad de ajuste Anderson-Darling 157
iii
RESUMEN
La presente investigación analiza el comportamiento de las crisis financieras a través de un
modelo empírico que permite caracterizar los periodos de crisis con base en el análisis
fractal y el uso de las distribuciones α-estables. El análisis de la evidencia empírica muestra
la presencia de persistencia y antipersistencia en la serie de tipo de cambio peso-dólar para
el periodo 1992-2012. Asimismo, se muestra que dicha variable denota la presencia de
colas pesadas por lo que modelar asumiendo un comportamiento normal, generaría
resultados poco apegados a la realidad.
A través de la utilización de estos conceptos se construyó un Índice Global de
Disimilaridad (anual, mensual y trimestral), que permite en primera instancia validar dos
grandes supuestos de la modelación financiera, independencia de las series en el tiempo y
normalidad de los datos. Y en segundo lugar identificar, como una medida de alerta
temprana, el grado de disparidad entre los parámetros observados y los teóricos, que
asumen independencia (H=0.5) y normalidad (α=2). El índice propuesto permitirá
identificar los periodos y la magnitud en que la serie analizada se aleja de los supuestos
básicos de modelación financiera (independencia y normalidad), como un indicador del
inicio o evolución de una crisis financiera.
Se propone la utilización de dicho índice como una medida de alerta temprana y como un
paso previo para el análisis financiero. Ya que partir de un paradigma por convención
asumiendo supuestos poco realistas en la práctica generará resultados alejados de la
realidad, como se demuestra en la aplicación de las distribuciones α-estables en la
valuación de opciones de tipo de cambio y en la estimación de su respectiva volatilidad
implícita respecto al caso normal.
iv
ABSTRACT
This research analyzes the behavior of financial crises through an empirical model to
characterize periods of crisis based on fractal analysis and the use of α - stable distributions.
The empirical analysis shows the presence of persistence and antipersistence in the series of
peso-dollar exchange rates for the period 1992-2012. It also shows that this variable
denotes the presence of heavy tails so assuming normal behavior modeling; could generate
wrong estimations.
Through the use of these concepts was constructed Global Dissimilarity Index (annual,
monthly and quarterly), which allows in the first instance validate two of financial
modeling assumptions, independence of the series respect to time and normality of the data.
And secondly identify, as a measure of early warning, the degree of disparity between the
observed and theoretical parameters, which assume independence ( H = 0.5) and normality
( α = 2 ). The proposed index will identify the periods and the extent to which the series
analyzed are away from the financial modeling assumptions (independence and normality),
as an indicator of the onset or progression of a financial crisis.
The index proposed can be a measure of early warning and a prerequisite for financial
analysis. Because the use of unrealistic assumptions in practice can generate unrealistic
results, as demonstrated in the application of α - stable distributions in the valuation of
exchange rate options and the estimate of their respective implied volatilities relative to
normal case.
v
INTRODUCCIÓN
El estudio de las crisis ha sido un tema que siempre ha estado presente como tema de
relevancia en el estudio de la Economía. A través de los años se han dado múltiples
episodios de crisis, que han modificado sus características a través del tiempo, variando en
su duración, causas y efectos. Se han desarrollado múltiples modelos para tratar de explicar
las causas y efectos de las crisis, así como tratar de pronosticar su aparición con suficiente
antelación para disminuir su impacto. Esta transición de modelos teóricos converge hacia la
predominación de modelos empíricos, donde sea la información disponible la que provea la
evidencia para la modelación de crisis. En el marco de los modelos empíricos, se busca
mayor apego a la realidad, buscando dar fundamento a las conceptualizaciones teóricas o
ser el mecanismo de contraste.
La presente investigación se planteó como objetivo la generación de un índice que
permitiera identificar periodos de crisis a partir de la estimación de la volatilidad implícita
en el precio de las opciones asumiendo distribuciones α-estables. Sin embargo, como
resultado del desarrollo del trabajo, se identificó que un indicador de esta naturaleza
únicamente permitiría identificar la disparidad en términos de volatilidad entre asumir una
distribución normal o utilizar la distribución α-estable en un periodo donde la serie presenta
impulsividad, pero una vez realizados los datos y las valuaciones correspondientes.
Por lo anterior, se optó por utilizar un modelo híbrido que permitiera generar un indicador
de alerta temprana para la identificación de crisis financieras, mediante la evaluación de los
supuestos de normalidad e independencia de la serie en el tiempo de manera simultánea.
Combinando el análisis fractal y el uso de distribuciones α-estables para la integración del
índice propuesto, esto permitió generar un análisis mucho más robusto y de mayor utilidad
para el estudio de las crisis financieras.
vi
El estudio del análisis fractal y de teoría del caos, a través del coeficiente de Hurst ha
aportado evidencia sobre la presencia de autosimilaridad en el comportamiento de las
variables económicas. Por otro lado, el paradigma por convención en el uso de la
distribución normal ha sido superado al utilizar nuevas familias de distribuciones que
permitan tener mayor apego a la realidad, para el caso de las variables económicas se ha
encontrado que su comportamiento denota la presencia de valores extremos que determinan
distribuciones con colas pesadas. Las distribuciones α-estables son más eficientes para
modelar este tipo de comportamientos. La combinación de ambos enfoques para la
determinación de un índice de alerta temprana, permitirá mediante la evaluación de dos
supuestos teóricos (normalidad e independencia) construir una medida de alerta temprana
para el análisis de crisis financieras.
La investigación se desarrolla a partir de la hipótesis de que los modelos teóricos hasta
ahora desarrollados difícilmente aportan explicaciones integrales acerca de las crisis y
sobre todo no permiten anticipar con antelación su generación y desarrollo. Por lo que, el
desarrollo de modelos empíricos, que permitan extraer mayor información de la dinámica
del mercado, es una alternativa para tratar modelar las crisis con mayor apego a la realidad.
La principal aportación teórica es la incorporación de herramientas matemáticas
innovadoras permiten captar información adicional implícita en las series financieras para
la validación de los supuestos básicos del modelaje financiero (independencia y
normalidad), así como para la mejora de los modelos de valuación de activos.
La principal aportación empírica radica en la presentación de un índice de alerta temprana
en el periodo 1992-2011 para la serie de tipo de cambio peso-dólar para solventar
obligaciones en dólares (FIX) basado en la distribución α-estable y el análisis fractal, que
permita identificar el inicio y desarrollo de períodos de crisis. Asimismo, como un
resultado adicional se presenta la valuación de opciones de tipo de cambio α-estable y se
muestran las diferencias entre la valuación normal y la valuación α-estable como un caso de
aplicación de las herramientas aplicadas en esta investigación y de los resultados del índice
propuesto.
vii
El documento se estructura de la siguiente forma. En el capítulo 1 se presentan los
antecedentes de crisis financieras más relevantes que han ocurrido a nivel internacional, se
describe cada una de ellas y concluye la necesidad de replantear la arquitectura financiera
internacional. En el capítulo 2 se hace un recuento de la modelación teórica que existe de
crisis financieras, a través de la evolución de los modelos teóricos y su convergencia hacia
los modelos empíricos. En el capítulo 3 se presenta el marco teórico que se utilizará en la
investigación, las distribuciones α-estables, el movimiento browniano fraccional y el
coeficiente de Hurst, la valuación de opciones en tiempo continuo, la valuación de opciones
con distribuciones α-estables y algunas herramientas de estadística multivariada, como las
distancias estadísticas y el escalamiento multidimensional métrico.
En el capítulo 4 se analiza la serie de tipo de cambio peso-dólar, para el pago de deuda en
dólares (FIX) en el periodo 1992-2012, para la cual se estima el coeficiente de Hurst
(mediante el método de Rango Reescalado) y el parámetro α (mediante el ajuste de la
distribución α-estable). Con ambos parámetros se construye la disimilaridad estadística
entre los valores estimados y los valores teóricos de independencia y normalidad, de ambos
parámetros. Con esta magnitud, de qué tan alejados o cercanos se encuentran los
parámetros en cada periodo determinado (anual, trimestral y mensual), se construye
mediante el reescalamiento multidimensional métrico un índice global de dismilaridad.
Por último se presentan las principales conclusiones, entre las que se puede destacar la
presencia de persistencia y antipersistencia en la serie del tipo de cambio en los diferentes
intervalos de tiempo del periodo analizado. De igual forma el ajuste de la distribución
α-estable a los datos denota la existencia de impulsividad en la serie en los diferentes
intervalos de tiempo considerados. El índice propuesto como medida de alerta temprana,
permite caracterizar los periodos de crisis presentando una mayor magnitud en aquellos
episodios de recesión. Al observar el índice en mayor frecuencia (trimestral y mensual) se
identifica que el índice describe correctamente la presencia de crisis y su evolución en el
tiempo.
viii
Esto permite construir umbrales de tolerancia para el análisis financiero y económico, ya
que en promedio valores mayores del 10% del índice denotan el inicio de una crisis. Una
utilidad adicional de la estimación del índice es que permite identificar la violación de los
supuestos de independencia y normalidad, y con ello identificar las metodologías correctas
a utilizar en el análisis por realizar a una serie. Ejemplo de ello son los diferenciales
encontrados en la valuación de opciones de tipo de cambio al asumir normalidad respecto a
modelar con una distribución α-estable, tomando en consideración que de acuerdo con el
índice estimado dicha serie presenta auto similitud e impulsividad.
1
CAPÍTULO I. LAS CRISIS FINANCIERAS INTERNACIONALES
1.1 Las crisis económicas y la globalización de los mercados financieros
Las crisis son un concepto inherente al sistema capitalista, su presencia y caracterización a
lo largo de los años se ha modificado en función de la evolución y cambio de los sistemas
económicos y sociales. En una visión sintética de la evolución del sistema económico a
partir de las grandes crisis en el mundo, se puede caracterizar su progreso a partir de las
modificaciones y ajustes al sistema económico enfocados a la solución de las crisis.
Las crisis, conceptualmente se caracterizan por un periodo de contracción de la actividad
económica, cuyo periodo de mayor impacto se caracteriza por una baja en la producción y
el empleo, aunado a una disminución de la tasa de ganancia, precios y salarios. Una crisis
se concibe como un punto de inflexión en un ciclo económico, el cual puede variar en su
duración e intensidad.
Existen diferentes vertientes teóricas sobre las crisis, Marx (1998) analizaba la dinámica
capitalista como un sistema integrado y la crisis era una señal de una caída abrupta de la
tasa de ganancia del capital. La crisis era una solución violenta y momentánea a las
contradicciones inherentes del sistema capitalista. Keynes (2003) posteriormente analiza las
crisis del capitalismo contemporáneo en especial la crisis de 1929, desde la perspectiva del
papel fundamental de las fluctuaciones en los mercados financieros en los periodos de
expansión o gestación de las denominadas burbujas especulativas y su contracción
posterior, analiza las decisiones de inversión, así como el papel fundamental del estado
como inversionista y regulador en periodos de crisis.
Tanto Marx como Keynes analizaron el efecto de la disociación entre los sectores
productivos y los mercados financieros (o capital dinero como lo denominaba Marx). Marx
planeta que el desarrollo de las fuerzas productivas tiene como finalidad la conservación
del valor del capital, pero su valoración excesiva genera la caída de la tasa de ganancia, por
ello los inversionistas se avocan en bandada hacia aquellas inversiones más riesgosas pero
2
con mayor tasa de ganancia. Keynes por su parte interpreta los activos financieros como
una estrategia para disminuir los riesgos asociados a la producción, siendo a través de las
emisiones de instrumentos financieros riesgos transferibles, así coexiste la producción
física y los activos financieros, y mientras los activos de largo plazo de las empresas se
transformen en títulos de corto plazo para los inversionistas la economía será más propensa
a la especulación (Rapoport & Brenta, 2010).
Posteriormente Hyman Minsky (1992) plantea que la libertad de mercado irrestricta
representa una debilidad del sistema, considera un elemento detonante de las crisis las
deudas, en específico las deudas para la adquisición de activos financieros con el objetivo
de obtener una ganancia al revenderlos (arbitraje). Minsky considera que la inestabilidad es
inherente a los mercados financieros, que los mercados financieros operan con la
interacción de fuerzas desequilibrantes que afectan la valuación relativa de los activos de
capital frente a los precios del producto, dicha relación de precios en conjunto con las
condiciones del mercado en un momento del tiempo determinan la inversión a realizar. El
ritmo de la inversión depende de la capacidad de financiar nuevas inversiones con deuda, la
cual depende a su vez de que las futuras inversiones generen los flujos necesarios para
cubrir las obligaciones, pagarse o refinanciarse. Por lo que una economía con niveles de
endeudamiento considerables por parte de las empresas y gran dependencia de las
expectativas futuras, es inherentemente inestable, y es presa de las interpretaciones
subjetivas de la coyuntura económica por parte de los banqueros y empresarios (Delgado
Selley, 2011).
Minsky sostiene que en un período de estabilidad económica, el historial crediticio de los
prestatarios y la validación de las operaciones exitosas a diferentes niveles de riesgo,
reducen los márgenes de utilidad y de seguridad. Incrementando así la fragilidad financiera,
inestabilidad y eventualmente culmina en una crisis, debido a la búsqueda constante de
mayores ganancias la inestabilidad es endógena al sistema.
3
Las crisis y las acciones para contrarrestarlas han definido la estructura económica y
política internacional, ejemplo de ello fue la crisis de 1929 donde la recuperación de la
economía mundial cerró el ciclo de recesión con la Segunda Guerra Mundial y un nuevo
orden económico mundial, después de la posguerra nuevamente la crisis de los años 70
marcó un punto de inflexión. A partir de entonces se han dado crisis sucesivas de manera
periódica, con lapsos de corta recuperación. Las crisis del capitalismo contemporáneo que
se consideran más relevantes fueron la de 1929, 1970 y 1980, actualmente se evalúa si la
crisis que se gestó en los países del primer mundo a partir de 2007 es otro punto de
inflexión.
En cada periodo de recesión se dieron cambios tanto políticos como del pensamiento
económico imperante, tal es el caso específico de la crisis de la deuda en la década de los
80’s en los mercados de la periferia. Al tratarse de una crisis de sobreproducción de los
países del primer mundo, que buscaron maximizar las tasas de ganancia a través del flujo
de capitales hacia los países en vías de desarrollo, con la posterior contracción del crédito y
aumento ingente de la deuda externa para los países de la periferia que derivó en la
suspensión de pagos. La crisis de la deuda en la década de los 80’s marcó el inicio de la
predominancia del pensamiento neoliberal, a raíz de la crisis en diferentes países del tercer
mundo se iniciaron una serie de modificaciones en el sistema económico a nivel
internacional. Medidas tales como el libre mercado, libre flujo de capitales, privatización de
empresas paraestatales, contención de la inflación como prioridad, finanzas públicas sanas
y bajo endeudamiento; permitieron generar las condiciones necesarias para un amplio
crecimiento del sector financiero.
El amplio crecimiento del sector financiero incluso por arriba de las actividades
productivas, tuvo como otra condición para su desarrollo, el amplio desarrollo teórico de la
economía financiera. Es necesario citar dos pilares fundamentales de la teoría financiera
moderna:
a) La teoría de los mercados eficientes a través del modelo de Harry Markowitz (1959)
b) El modelo de valuación de opciones Black-Scholes (1973)
4
La teoría de los mercados eficientes argumenta que los precios de mercado, según la
información disponible, son las mejores estimaciones de los valores reales de los activos. El
modelo de Markowitz se basa en el supuesto de que el inversionista puede reducir el riesgo
de su cartera al elegir aquellos activos no correlacionados y maximizar su rendimiento a un
nivel de riesgo específico. Así cada inversionista puede elegir eficientemente y de manera
racional en que invertir. Más allá de la veracidad del modelo de Markowitz, fue utilizado
como una tautología innegable. Posteriormente, Merton y Scholes, desarrollaron el modelo
para valuar opciones generalmente utilizado en la actualidad. La generalización del uso de
la fórmula de valuación Black-Scholes permitió el desarrollo acelerado de los productos
derivados, por su propia naturaleza uno de los mercados más especulativos (Rapoport &
Brenta, 2010).
El desarrollo teórico con un alto nivel de rigor matemático ofreció validez externa de la
teoría, al menos en su estructura lógica. Además el desarrollo tecnológico e informático
permitió el crecimiento de los mercados financieros a nivel global. Cada vez se utilizaron
métodos más sofisticados en la valuación y realización de las operaciones, así como en el
análisis de riesgos. El fundamento teórico que se pensó absoluto e imperante en la realidad
fue el catalizador del proceso de globalización financiera, implicó el movimiento sin límite
del capital a través del mundo. El desarrollo de herramientas informáticas y de
comunicación permitió la realización de transacciones en tiempo real a través de todos los
mercados. Las innovaciones financieras se incrementaron y cada día nacían nuevos
productos estructurados que ofrecían altas tasas de rentabilidad con un supuesto bajo nivel
de riesgo.
El mercado financiero dejó de ser un mercado segmentado y local, los mercados nacionales
se integraron al mercado internacional, marcando así el inició del adoctrinamiento
neoliberal a lo largo del mundo. Las medidas de política económica definidas a partir de la
década de los 80’s por las autoridades monetarias internacionales se aplicaron de manera
irrestricta en aquellas naciones con problemas estructurales y como se pudo comprobar
algunos años después, era imposible aplicar un paradigma homogéneo en un mundo lleno
de contradicciones estructurales.
5
El devenir de periodos de recesión recurrentes a través de las economías que adoptaron con
mayor vehemencia los dictámenes del Fondo Monetario Internacional (FMI): Argentina,
Brasil, México, Corea del Sur, Tailandia, Rusia; fueron ejemplos fehacientes acerca de la
inoperancia del paradigma económico difundido por el FMI. Los costos sociales de las
recesiones han sido altos y en la actualidad nuevamente estamos presenciando un periodo
de crisis que paradójicamente tuvo su origen en el primer mundo.
Las recesiones experimentadas en los últimos 30 años son solo el inicio de una ola de
contrastes y contradicciones del propio sistema capitalista, en un escenario de libre
circulación de capital e innovación financiera. Se incrementaron el número de
intermediarios financieros no bancarios, hubo una mayor desregulación financiera, un
aumento de las operaciones fuera de balance, la operación con productos derivados
financieros y posteriormente con productos estructurados y pasivos empaquetados aumentó
considerablemente. En el periodo 1980-2007 el crecimiento del stock de activos financieros
globales se incrementó nueve veces (Rapoport & Brenta, 2010).
La preponderancia de los mercados financieros en la economía mundial implica
inestabilidad por la misma naturaleza especulativa de dichos mercados, ya que en los
mercados de bienes un aumento o disminución de precios genera un alza o baja de la
demanda, no siendo así en los mercados financieros donde existe un alto componente
subjetivo basado en expectativas. Los mercados financieros son estructuralmente inestables
y permean esta inestabilidad a toda la economía.
Para poder entender las crisis contemporáneas es necesario entender cuál fue el proceso
mediante el cual se llegó a la estructura económica actual que ahora es cuestionada y
declarada incompetente para resolver los problemas estructurales que viven las economías
en recesión. Cómo fue que los mercados financieros se posicionaron a nivel mundial, y por
que la teoría neoclásica fue la condición necesaria para lograr este proceso. En la figura 1
se presenta una línea del tiempo destacando la evolución de los cambios del sistema
económico y los periodos de crisis que se consideran más relevantes, no siendo así los
únicos.
6
Figura 1. Periodos de crisis en el mundo en las últimas décadas
Fuente: Elaboración propia.
Los periodos de crisis fueron causa y consecuencia de un proceso de evolución del sistema
capitalista y el modelo económico imperante, las reformas derivadas de la crisis de la deuda
determinaron el escenario para la gestación de las crisis subsecuentes del modelo
neoliberal. Posteriormente, la recesión se gesta en los países de primer mundo, pero de
igual forma que en Latinoamérica es consecuencia de la aplicación de recetas rígidas
implementadas por recomendación del FMI. En las siguientes secciones se abordarán las
principales crisis identificadas en los últimos 30 años, mediante un análisis descriptivo que
permita entender la evolución de los periodos de crisis que se han vivido en la historia
contemporánea del capitalismo, para posteriormente en el capítulo dos abordar el modelaje
teórico que se ha realizado para explicar las diferentes recesiones.
1.2 Las crisis del neoliberalismo
La expansión de la posguerra fue un periodo relativamente estable, terminó en la década de
los 70’s sin grandes depresiones económicas a nivel mundial, donde comparado con la
crisis de 1929 presentó una dinámica diferente. Se dio una caída en las tasas de ganancia en
el primer mundo y el agotamiento del orden monetario internacional que fue establecido en
Bretton Woods. La rentabilidad del capital disminuyó en todos los países desarrollados, en
Estados Unidos 6.4% entre 1966-1974, 6.8% entre 1968-1973 en Alemania y 8.8% entre
1970-1975 en Gran Bretaña y Francia. La crisis del dólar en 1971 y el aumento de los
precios del petróleo en 1973 y 1979, conformaron las condiciones de una nueva estructura
capitalista (Rapoport & Brenta, 2010).
1974-1978Sobreproducción
y aumento de
flujo de capitales
hacia la periferia
1979-1981Aumento de
las tasas de
interés
1982-1985Crisis de la
deuda
1986-1990Hiperinflación y
recuperación en
Latinoamérica
1991-1994Auge del
Neliberalismo
1995-2002Inicio de la crisis del
neoliberalismo:
México (1995)
Asia (1997)
Rusia (1998)
Brasil (1999)
Argentina (2001)
2002-2007Recuperación y
crecimiento de los
países en recesión
Gestación de la
crisis subprime
2007-¿?Crisis subprime en
Estados Unidos
Gestación de la
crisis de la Unión
Europea
2010-¿?Crisis en la
Unión Europea
7
En este escenario se desarrolló una corriente de economistas ortodoxos, que en un contexto
de crisis y de baja en la tasa de ganancia del capital en los 70’s influyeron ampliamente en
las decisiones económicas del mundo, a través del desarrollo de la corriente de pensamiento
económico denominada neoliberalismo. Las teorías monetaristas imperaron, criticando los
esquemas keynesianos, preponderando políticas dirigidas a mantener estabilidad en los
precios. La intervención del estado en el sentido keynesiano no era aceptada, ya que se
consideraba la existencia de una tasa natural de desempleo con un cierto nivel de inflación,
por lo que era necesario contrarrestar la inflación como medida prioritaria.
Así, los periodos de auge y crisis principalmente en Estados Unidos coincidieron con
recesiones en la periferia, inició lo que se denominó la dinámica centro-periferia. Cuando
había acumulación de liquidez en el centro debido a la caída en las tasas de rendimiento del
capital, los flujos de capital se dirigían a la periferia (países en desarrollo), este proceso
duraba hasta que el centro presentaba recesión y se daba un alza en las tasas de interés,
generando el retorno de los capitales con un alto costo social en la periferia.
Comparando la evolución del PIB de Estados Unidos y de América Latina, utilizando
promedios móviles de 3 años para suavizar la serie, se puede observar que existen ciclos
inversos en el crecimiento de ambas economías, salvo a partir de 2003 donde la
recuperación en América Latina pareciera ser endógena, mientras que en Estados Unidos su
actividad económica va a la baja derivado de un proceso de apalancamiento del mercado
interno y externo que culminó con la crisis de 2007 (figura 2).
8
Figura 2. Promedios móviles del crecimiento del PIB: América Latina y el Caribe y Estados
Unidos. 1961-2011.
Fuente: Elaboración propia con datos del Banco Mundial.
La crisis de la deuda en Latinoamérica, que inició en 1981 se acentúa en 1984 tomando
medias móviles a tres años, se debió principalmente a las alzas en la tasa de interés de la
Reserva Federal a partir de 1979 derivado de los aumentos en los precios del petróleo y la
disminución de las tasas de ganancia. La recuperación de la economía Estadounidense se
dio a partir de 1983 en gran medida debido a los retornos por concepto de intereses de la
deuda externa de los países de la periferia. A partir de la denominada nueva economía del
conocimiento se dio un nuevo periodo de crecimiento y relativa estabilidad, hasta el año
2000 que culminó con la denominada burbuja especulativa del internet.
-15%
-10%
-5%
0%
5%
10%
15%
20%
25%
30%
19
61
19
62
19
63
19
64
19
65
19
66
19
67
19
68
19
69
19
70
19
71
19
72
19
73
19
74
19
75
19
76
19
77
19
78
19
79
19
80
19
81
19
82
19
83
19
84
19
85
19
86
19
87
19
88
19
89
19
90
19
91
19
92
19
93
19
94
19
95
19
96
19
97
19
98
19
99
20
00
20
01
20
02
20
03
20
04
20
05
20
06
20
07
20
08
20
09
20
10
20
11
% Variación
América Latina y el Caribe Estados Unidos
9
En la década de los 90’s el capital fluyó a los países latinoamericanos por el impulso a la
libre movilidad de capitales, resultado de las modificaciones de política económica
neoliberales implementadas a partir de la crisis de los 80’s. Sin embargo, nuevamente a
mediados de la década de los 90’s se dan periodos de crisis en aquellos países que más
fehacientemente implementaron las políticas estabilizadoras propuestas por el FMI:
México, Turquía, Rusia, Brasil y Argentina. Se trató de crisis locales o cuando mucho
regionales, que afectaron a algunos países y sectores particulares.
La economía de Estados Unidos tuvo un periodo más de estabilidad entre 2002-2006
basado en la burbuja especulativa de las viviendas que permitió superar la burbuja del
internet, pero finalmente culminó con la crisis hipotecaria en 2007, periodo de recesión del
cual aún no se ha recuperado y por el contrario tuvo un efecto importante en la Unión
Europea que entró en recesión en 2008 y aún no se vislumbran signos de recuperación. En
las siguientes secciones se describe de manera sucinta los periodos de crisis considerados
como los más relevantes en las últimas décadas.
1.2.1 La crisis en México (1995)
La estructura económica de México a partir de la cual surge la crisis de finales de 1994,
tiene sus orígenes en las reformas establecidas a partir de la crisis de la deuda de la década
de los 80’s, las reformas aplicadas basadas en el libre mercado y un bajo nivel de
intervención estatal generaron fuertes contradicciones en la dinámica de la economía y las
reglas establecidas por las agencias internacionales. El denominado consenso de
Washington que fue el mecanismo que se determinó para paliar el efecto de la crisis de la
deuda, reestructurar el esquema de pagos y así poder acceder a nuevos créditos consideraba
diez puntos básicos que determinaron la estructura económica previa a la crisis de 1994
(Rangel & Ivanova, 2003):
a) Finanzas públicas equilibradas
b) Control de la inflación
c) Reducción del gasto público
10
d) Reforma tributaria
e) Determinación de la tasa de interés en el mercado de dinero
f) Tipo de cambio flexible
g) Apertura comercial
h) Promoción de la entrada de inversión extranjera directa
i) Privatización de empresas paraestatales
j) Desregulación de los mercados para promover la competencia
De la serie de reformas planteadas para México la mayoría se realizó de acuerdo a los
cánones establecidos por el FMI, sin embargo en el caso de la determinación del tipo de
cambio se mantuvo un esquema fijo con bandas de flotación. De 1991 a 1994 en México se
mantuvo este esquema mediante el cual se utilizaba el tipo de cambio como ancla nominal
para controlar el crecimiento de los precios. De enero a diciembre de 1994, el tipo de
cambio se depreció 12.6% dentro de la banda de flotación, como consecuencia de una serie
de eventos económicos, políticos y sociales (León, 2008):
a) El conflicto armado en el estado de Chiapas
b) Aumento de la tasa de interés en Estados Unidos
c) El asesinato del candidato del PRI a la presidencia
d) La renuncia del secretario de gobernación
Ante esta situación se gestó un escenario de inestabilidad y desconfianza en el mercado
mexicano, que aunado al desequilibrio en cuenta corriente generó un ataque especulativo
contra el peso, lo que significó una disminución significativa de las reservas internacionales
por lo que el 19 de diciembre de 1994 la Comisión de cambios decidió abandonar el
régimen cambiario fijo y decidió devaluar el peso (León, 2008).
11
Previo a la devaluación, el dólar cotizaba a 3.6 pesos y posterior a la devaluación el tipo de
cambio era de 5.7 pesos por dólar. Un aumento de 64.6% en tan solo un mes, para marzo de
1995 el peso se había devaluado cerca del 100%. La intervención del banco central para
proteger el valor del peso generó una pérdida consecutiva de reservas internacionales que
pasaron de 20 mil millones de dólares en enero de 1994 a 5 mil millones de dólares en
enero de 1995(Ángeles Castro, 2010). El tipo de cambio dejó de ser el ancla del control de
precios para convertirse en conjunto con la tasa de interés, en una variable de ajuste ante
choques externos. México se suma a la lista de países que a principios de la década de los
setenta transitaron a regímenes cambiarios de libre flotación.
Existieron varias condiciones específicas que potenciaron y permitieron la gestación de la
crisis, por un lado se dio un proceso de expansión del crédito a raíz de la privatización de la
banca a inicio de los noventas, el crédito otorgado a instituciones no financieras y firmas
privadas pasó del 10% en 1988 a 40% en 1994. Esto sin que hubiera un organismo
regulador con la capacidad de supervisión requerida, la falta de supervisión generó que los
bancos incurrieran en riesgos excesivos, generando así que la moratoria de créditos pasara
de 4% en 1990 a 15% en 1995 lo que generó el aumento de malos créditos y el deterioro de
los balances bancarios (Ángeles Castro, 2010). Otro factor que fue catalizador de la
situación en México fue el aumento de las tasas de interés en Estados Unidos, en febrero de
1994 la Reserva Federal como medida de prevención de inflación comenzó a elevar la tasa
de interés interbancaria, esto generó presión a la alza en la tasa de interés en México que
aunado a las acciones realizadas para mantener el valor del peso generó un escenario de
vulnerabilidad.
La situación se agravó por el subsecuente aumento de la inflación, que llegó a niveles del
51.97% en diciembre de 1995, ante esta situación y con el objetivo de frenar la
depreciación del peso se observaron alzas en las tasas de interés, la Tasa de Interés
Interbancaria (TIIE) se elevó 89% en marzo de 1995. Esto solo generó más incertidumbre y
se trasladó su efecto en la bolsa de valores, entre febrero y marzo de 1995 el IPC
disminuyó cerca del 50% de su valor respecto a septiembre de 1994 (Ángeles Castro,
2010).
12
Inevitablemente se dieron salidas de capital, entre 1994 y 1995 un fuerte flujo de capitales
salió de México, prácticamente el doble de los flujos que ingresaron como inversión
extranjera directa, aunado con los efectos previos finalmente se reflejó el impacto en la
actividad económica real, resultando en una contracción del PIB de 8.6% en el segundo y
tercer trimestre de 1995 el saldo anual fue una caída del producto de 7.74% (Cruz & Lapa,
2012). A nivel firma, el aumento en el costo de intereses y un aumento significativo de la
deuda para aquellas que tenían pasivos en dólares, empeoraron su situación financiera, el
valor de las empresas se vio deteriorado por la caída del valor de sus acciones y por la
devaluación de la moneda, sin la existencia de un seguro gubernamental (FOBAPROA) el
sistema bancario habría colapsado, de igual forma se tuvo un efecto negativo en los hogares
y el nivel de bienestar de la población se vio afectado.
La situación de la economía mexicana en 1994, se vio caracterizada por una crisis de
balanza de pagos, reducción significativa de las reservas internacionales lo que impidió
mantener el tipo de cambio fijo. En 1995 predominó la inestabilidad económica asociada la
crisis, el gobierno recurrió a una reestructuración interna mediante la realización de
distintos pactos entre los que se pueden citar el Acuerdo de Unidad para Superar la
Emergencia Económica (AUSEE), el Programa de Acción para Reforzar el AUSEE y la
Alianza para la Recuperación Económica; el objetivo de los pactos era mantener los
salarios fijos, precios y tarifas del sector público, contención de precios en el sector privado
y del gasto público. El Banco de México (Banxico) otorgo créditos al Fondo Bancario de
Protección al Ahorro por 37, 975 millones de pesos y al Fondo de Apoyo al Mercado de
Valores por 1,983 millones de pesos para dar certidumbre a los mercados (León, 2008).
El esquema monetario implementado en México después de la devaluación del peso,
determinó que las tasas de interés como el tipo de cambio sean definidos por las fuerzas de
mercado, en congruencia con el decálogo establecido por el consenso de Washington. En
materia de política monetaria, durante los primeros ocho meses de 1995, la base monetaria
era modificada por manejo discrecional del crédito interno de Banxico, el control de la tasa
de crecimiento del crédito permitía disminuir la demanda agregada y las presiones
inflacionarias.
13
Posteriormente se adoptó el Régimen de Saldos Acumulados y en 2003 fue sustituido por
un Régimen de Saldos Diarios, comúnmente conocida como “corto”, el objetivo de este
régimen es transmitir señales al mercado de dinero sobre la postura de política monetaria
del banco central, de 1995 a 2005 la Comisión de Cambios mantuvo un régimen de
flotación intervenido mediante la compra de dólares a instituciones de crédito mediante
opciones, venta de dólares a través de subastas y subastas diarias de dólares. Finalmente se
abandonó el “corto” y el mercado cambiario opera en libre flotación, únicamente se
mantienen las subastas diarias de dólares pero con el único objetivo de reducir el ritmo de
acumulación de reservas internacionales. El régimen de flotación intervenida permitió
estabilizar la economía y disminuir las presiones cambiaras, además de contribuir a la
acumulación de reservas internaciones.
Uno de los efectos de las reformas establecidas que debe destacarse es la contracción del
crédito productivo, lo que ha generado que el mercado interno permanezca prácticamente
estático. Cabe destacar el papel de la banca, ya que no realiza su función de financiador de
actividades productivas o vinculación de los ahorradores con los inversionistas, debido a
altos márgenes de intermediación y altos costos del crédito en el país. La banca en México
es un caso particular ya que ha pasado por la estatización con López Portillo, la
privatización bancaria de Miguel de la Madrid, continuada con Carlos Salinas y el rescate
bancario a través del FOBAPROA con Ernesto Zedillo, por último con Vicente Fox se dio
la extranjerización del sistema bancario nacional nuevamente. Por lo anterior, aún cuando
los fundamentales macroeconómicos se mantengan estables el nivel de vida y desarrollo de
la población se ha degradado debido a la falta de crecimiento económico.
La estabilización de la economía mexicana después de la crisis de la deuda en la década de
los 80’s y de los desequilibrios financieros generados por la devaluación de la moneda, han
tenido efectos positivos a nivel macroeconómico variables como la tasa de inflación, la tasa
de interés, tipo de cambio nominal, déficit gubernamental y el riesgo país han mantenido un
comportamiento favorable; pero el crecimiento económico y la generación de empleos no
han tenido un comportamiento favorable (ver figura 3). Para mayor detalle se sugiere ver
OCDE (2010) y Juárez (2011).
14
Figura 3. Indicadores macroeconómicos seleccionados, México 1980-2012
Fuente: Elaboración propia con datos del Banco Mundial.
Aunque prevalece el debate teórico entre crecimiento e inflación, ya que la estabilidad
macroeconómica y en precios se ha dado a costa del crecimiento económico y consecuente
desarrollo de la población. Se ha incrementado la concentración del ingreso, hay un
aumento del desempleo, aumento en marginación y población en condición de pobreza, el
aumento de la economía informal, inseguridad y dependencia del exterior. Y pareciera que
no se ha definido un plan de desarrollo de largo plazo para el país más allá de los objetivos
de mantener estables los fundamentales macroeconómicos.
Por citar algunos datos de la OCDE, México en los últimos veinte años no ha crecido de
acuerdo a sus posibilidades en comparación con otras economías emergentes, ocupa el
último lugar de los países de la OCDE en gasto social en el periodo 1985-2007 el gasto
social como porcentaje del PIB solo ha aumentado 5 puntos porcentuales al pasar de 2% a
7.2%, las cargas administrativas para la creación de empresas siguen siendo altas, existen
altos niveles de desigualdad en el ingreso el 10% más pobre en México acumula cerca del
1.3% del total del ingreso disponible, mientras el 10% más rico acumula cerca de un 36%,
-40
-20
0
20
40
60
80
100
120
140
%
Ahorro interno bruto (% del PIB)
Balanza comercial de bienes y servicios (% del PIB)
Crecimiento del PIB (% anual)
Crecimiento del PIB per cápita (% anual)
Desempleo, total (% de la población activa total)
Exportaciones de bienes y servicios (% del PIB)
Formación bruta de capital (% del PIB)
Inflación, precios al consumidor (% anual)
Tasa de interés nominal (%)
Total del servicio de la deuda (% del PIB)
Déficit/superávit fiscal (% PIB)
15
OCDE (2010). Según datos de Consejo Nacional de Evaluación de la Política de Desarrollo
Social (CONEVAL) en 2012 el 45.5% de la población vive en condición de pobreza y el
9.8% en condición de pobreza extrema, los resultados positivos de la estabilidad
macroeconómica no se han visto reflejados en el bienestar de la población.
1.2.2 La crisis en Asia (1997)
La crisis en Asia afectó principalmente a un grupo de países en vías de desarrollo, que de
igual forma como en América Latina aplicaban el paradigma neoliberal. Las principales
economías afectadas fueron, Tailandia, Malasia, Indonesia, Filipinas y Corea del Sur.
Nuevamente se identifica como una crisis de liberalización y falta de regulación, aún así
existieron características heterogéneas entre los países afectados, por ejemplo Tailandia,
Indonesia y Filipinas presentaban apreciación en sus monedas contrario a lo ocurrido
Malasia y Corea del Sur. Por otro lado el déficit de cuenta corriente no fue condición
necesaria, ya que ni Indonesia ni Corea presentaron elevados déficits en los años previos a
la crisis (Bustelo, 2004).
El escenario previo a la crisis estaba determinado por amplia la apertura comercial y tipos
de cambio nominales semi-fijos, además de bajas tasas de interés prevalecientes en los
países desarrollados y fuerte entrada de capital extranjero. Se dio una fuerte apreciación de
la moneda a raíz del amplio flujo de capitales y de los diferenciales de inflación respecto al
dólar, la creciente competencia comercial de China desembocó en un menor crecimiento de
las exportaciones y un aumento del déficit de cuenta corriente. Se dio un proceso de
crecimiento crediticio apoyado por las entradas de capital y la desregulación financiera, lo
que generó una burbuja de activos bursátiles e inmobiliarios, ya que los créditos
generalmente eran de corto plazo y poco vinculados a actividades productivas.
No existía un mecanismo adecuado de supervisión de entidades y operaciones financieras,
lo que permitió generar mayor fragilidad del sistema, aumentó el endeudamiento externo y
generó el desequilibrio entre monedas y plazos, ya que muchos intermediarios se
endeudaban en moneda extranjera a corto plazo para invertir en moneda nacional a largo
16
plazo. Los flujos de capital extranjero no mantuvieron sus niveles ya que las entradas netas
de capital de los cinco países mencionados pasaron de 69,849 millones de dólares en 1996 a
18,205 millones en 1997 y a menos de 10,247 en 1998 (Bustelo, 2004).
Una de las características de la crisis asiática fue que no se habían previsto en el mercado,
fueron inesperadas y mostraron una gran capacidad de contagio, es por ello que el FMI
intervino en Tailandia, Indonesia y Corea del Sur. Los síntomas nuevamente se repitieron,
mediante la aplicación de las políticas del paradigma neoliberal, liberalización financiera,
entrada masiva de capitales, mala asignación del crédito, apreciación de las monedas,
déficit en cuenta corriente, deuda externa de corto plazo y ataques especulativos a las
monedas locales. La apreciación de la moneda previa a la crisis fue de alrededor del 47%
en Filipinas, 28% en Malasia, 25% en Tailandia e Indonesia y 11% en Corea del Sur. Los
créditos en Asia se desvincularon de actividades productivas en general se financiaron
inversiones inmobiliarias y en acciones bursátiles. Las entradas de capital esencialmente se
dieron vía préstamos bancarios que en 1996 representaron el 58% de las entradas netas de
capital privado de los países afectados, debido esencialmente a que en Asia no hubo un
importante endeudamiento público ni privatizaciones masivas, por lo que la estructura de la
deuda fue básicamente privada. Por ello la causa detonante de la crisis fue un exceso de
inversión privada financiada con deuda de corto plazo (Bustelo, 2004).
La recesión inicia en julio de 1997 con la decisión de Tailandia de devaluar su moneda
debido los altos niveles de deuda externa que hicieron insostenible su paridad con el dólar
ante los ataques especulativos, permeó a otras economías de la región, seguida por
numerosas devaluaciones en Malasia, Indonesia y Filipinas, lo que repercutió también en
Taiwán, Hong Kong y Corea del Sur. En un momento inicial la crisis era de carácter local
pero posteriormente impactó diversos mercados internacionales y se convirtió en una crisis
global. Los efectos se vieron reflejados en una contracción del PIB en 1998, Tailandia tuvo
una caída del PIB de 10.2%, Corea del Sur de 6.7%, Malasia 7.4%, Indonesia del 13.5%,
Hong Kong de 5.1% y Japón de 2.5% (Lindgren, 1999). Ante los desequilibrios finalmente
el FMI propuso un programa de 40 mil millones de dólares, para estabilizar las monedas de
Corea del Sur, Tailandia e Indonesia, cuyas economías habían sido particularmente
17
afectadas por la crisis. Se aplicó un ajuste estructural enfocado a recortar el gasto público y
reducir el déficit fiscal, dejar que las instituciones financieras y bancos insolventes
quebraran y aumentar agresivamente las tasas de interés. El objetivo era restaurar la
confianza en la solvencia fiscal de los países, sin embargo resulta paradójico que la
solución de la crisis sea aplicar las mismas medidas que dieron origen al problema. Es
importante mencionar que los países asiáticos no dieron seguimiento explícito de las
recomendaciones del FMI lo que permitió un margen de maniobra principalmente en
política fiscal, lo que contribuyó a poder salir de la crisis en el mediano plazo y regresar a
cifras positivas de crecimiento económico.
1.2.3 La crisis en Rusia (1998)
La desintegración de la Unión Soviética en 1992 y el nacimiento de Rusia como un país
independiente, con Boris Yeltsin como presidente, marcó el inicio de una serie de reformas
estructurales que buscaban insertar a la economía rusa en la dinámica capitalista mundial.
Se aplicaron como en muchos otros países los cánones neoliberales que abanderaba el FMI,
durante los años 90 se focalizaron tres grandes grupos de reformas en Rusia:
a) Liberalización comercial
b) Privatización de empresas paraestatales
c) Estabilización y creación de un sistema macroeconómico de tipo occidental
El objetivo era aumentar la participación privada en la economía rusa, a mitad de la década
de los noventa, más de la mitad de las actividades económicas estaban operadas por
privados. Sin embargo, imperaba una amplia desorganización del sistema lo que generó una
crisis sin precedentes, en 1997 el nivel de producción alcanzado era la mitad de lo
producido en 1990. No se consiguieron generar mecanismos macroeconómicos de gestión,
lo que generó un sistema fiscal prácticamente inoperante y que llevo a la quiebra fiscal al
estado en 1998 (Andrés, 2011).
18
A la crisis económica se le añadió una crisis política, manifestada por una serie de
sustituciones de los primeros ministros debido a problemas de corrupción. La crisis rusa fue
en parte un efecto de la crisis asiática, el mecanismo de transmisión fue vía los precios de
las mercancías y del petróleo, que sufrieron una baja considerable. Rusia como un
exportador importante de petróleo, gas natural, metales y madera vio afectada su economía
al sufrir la volatilidad de los precios de las mercancías. Pero el problema central fue como
se mencionó previamente la quiebra fiscal debido a la elevada corrupción, que impedía una
recaudación eficiente.
Los síntomas económicos nuevamente son parecidos en algunos aspectos como lo es la
banda cambiaria, déficit fiscal y déficit comercial, altas tasas de interés que generaban
ingreso de capital especulativo que financiaba el crédito interno y el endeudamiento externo
que se exacerbó después de la devaluación del rublo. El FMI proporcionó créditos por 22
mil millones de dólares, pero no fueron suficientes para abatir la espiral especulativa que se
había desencadenado. Como consecuencia finalmente en la segunda mitad de 1998 se
devaluó el rublo alrededor de 300% entre agosto y septiembre, hubo un aumento de la
inflación del 84% y una caída del producto de 5.3% con la consecuente moratoria de pagos
(Sánchez Pozo, 2008).
A comienzos del año 2000, después de haber sido primer ministro, Vladímir Putin, es
elegido presidente. Optó por una serie de reformas que buscaban conseguir crecimiento
sostenido y diversificar la economía. Estableció tres grandes líneas de política económica:
a) Políticas de cambio institucional: su objetivo era limitar la capacidad de actuación
de los gobernadores regionales y restringir la influencia de los grupos privilegiados,
así como limitar la corrupción. Se buscaba lograr mayor capacidad para la toma de
decisiones y de recaudación.
b) Políticas de carácter coyuntural: el objetivo era estabilizar la economía, disminuir la
inflación y el déficit público, además de focalizar el gasto público para la mejora de
las condiciones de vida de la población.
c) Políticas estructurales: tenían por objetivo diversificar la economía
19
Como resultado de estas políticas se logró un aumento en la recaudación aunque una gran
parte debido al alza del precio del petróleo, así como una disminución de la inflación que
en 2000 fue de 20.2% para llegar en 2001 a un 9% (Andrés, 2011). Hubo una mejora en la
calidad de vida de la población derivado de aumentos salariales, el gobierno acrecentó su
control sobre los hidrocarburos, pero se generó un elevado grado de monopolio en la
economía rusa.
La etapa de Putin permitió estabilizar la economía y conseguir crecimiento sostenido, pero
se pasaron por alto importantes problemas estructurales, inversión en infraestructura,
educación y tecnología, problemas que se reflejaron en la gestión de Medvédev en 2008
donde nuevamente el país cayó en recesión. De 2004-2007 el PIB creció a una tasa
promedio de 7.4%, en 2008 esta tasa fue de solo 5.6% y en 2009 entró en recesión con un
decremento de 7.9%. Esta nueva recesión fue consecuencia de lo que se pasó por alto de la
crisis previa en 1998, y se puede caracterizar por cuatro elementos esenciales de la
economía rusa: 1) la caída de los precios del petróleo, 2) el recorte de flujos financieros de
occidente, 3) falta de reactivación de la economía debido a un deterioro estructural y
obsolescencia, y 4) la desarticulación del aparato administrativo imperante (Andrés, 2011).
Actualmente el gran reto de la economía rusa es la modernización de su aparato productivo,
a través de la diversificación productiva, desarrollo tecnológico, modernización de la
infraestructura del país, inversión en investigación y desarrollo, así como una reforma
educativa y administrativa. La crisis de 1998 fue consecuencia de los cambios estructurales
que se pasaron por alto al cambiar su sistema económico, estas mismas deficiencias
gestaron la recesión de 2008. El escenario en 1998 fue la constante en las crisis de la
década, liberación comercial y de capitales, sobre endeudamiento externo, déficit comercial
y fiscal y tipo de cambio semifijo.
20
1.2.4 La crisis en Brasil (1999)
La economía Brasileña en la década de los noventa y a partir de la aplicación del
denominado Plan Real inicia un periodo de reestructuración. El Plan Real era un plan de
estabilización de la economía brasileña que se implementó en 1994 con el objetivo de abatir
la inflación y fomentar el crecimiento económico. El Plan Real fue el inició de una serie de
reformas macroeconómicas e institucionales en Brasil en congruencia con la corriente de
pensamiento económico que influenciaba toda Latinoamérica.
Los elementos del Plan Real, evidentemente van acorde a la política económica impulsada
por el FMI, apertura comercial y financiera, estabilidad de precios y privatización de
empresas paraestatales. El resultado fue la disminución de la inflación, aumentos en la tasa
de interés y la consiguiente entrada de fuertes flujos de capital externo con un alto
componente especulativo, apreciación de la moneda local, aceleración del crecimiento de
las importaciones y por ende un aumento del déficit comercial y de la balanza de pagos, y
finalmente la vinculación a la movilidad de capitales internacional y por lo tanto una mayor
fragilidad a choques externos.
El escenario poco diferente respecto a lo descrito en las crisis previas en la década de los
90’s, generó fuertes desequilibrios en balanza de pagos y ataques especulativos a la moneda
local que desembocaron en la devaluación. Aún así como en cada episodio de crisis existen
particularidades específicas, como una apertura comercial significativamente menor que el
resto de Latinoamérica, el impacto de la devaluación de la moneda sobre la banca fue
diferente en el caso brasileño respecto a otros países de Latinoamérica. El principal impacto
de la devaluación afectó al componente público, hasta 1996 el plan de estabilización tuvo
efectos positivos en el componente social, mediante la reducción de la pobreza. La
proporción de la deuda pública interna respecto a la externa generó que el financiamiento
de la reestructuración de la banca fuera público (Saínz & Calcagno, 1999).
21
El Plan Real, identificado en ocasiones sólo como un plan de estabilización, fue diseñado
como un programa de cambios profundos de la economía y la sociedad brasileñas. El
creciente déficit externo, el aumento de la deuda pública interna y la persistencia de las
altas tasas de interés internas, fueron el tema de debate sobre el camino que debía seguir la
economía brasileña. En el Plan Real, la estabilidad de los precios se apoyaba en la
apreciación de la moneda, causada por las altas tasas de interés y la consiguiente entrada de
capitales, debido al desequilibrio comercial y en la cuenta corriente de la balanza de pagos,
el plan se fundamentaba significativamente en financiamiento externo.
Era condición necesaria atraer y retener suficientes capitales externos, por lo que era
necesario ofrecer elevados rendimientos mediante altas tasas de interés. Las altas tasas de
interés generaban múltiples efectos diferenciados en el sector productivo y financiero. La
desvinculación del capital de actividades productivas generó bajo crecimiento y una
dependencia ingente del capital externo que se vio azuzado por la crisis asiática reciente en
Rusia. En el último trimestre de 1998, Brasil llegó a un acuerdo con el FMI, que junto a
otros organismos multilaterales y países desarrollados comprometía recursos externos por
41 mil millones de dólares. Las metas fiscales, centrales en el acuerdo con el FMI,
dependían de lograr una reducción de las tasas de interés.
En ausencia de nueva inestabilidad en el escenario externo, las tasas de interés debían
reducirse a medida que los ajustes fiscales se aprobaran y en conjunto con la evolución del
déficit (el cual creció desde 100 mil millones de reales en 1994 a unos 400 mil millones en
1998), contribuiría a restaurar la confianza de los inversionistas externos, permitiendo
mantener la política de ajuste gradual del tipo de cambio, sustentada en la entrada de capital
externo. Sin embargo, lo observado fue el caso contrario, las salidas de capitales de corto
plazo aumentaron a partir de diciembre de 1998, por lo que las reservas internacionales
tuvieron una nueva caída, a pesar de un primer desembolso del FMI por 9,400 millones de
dólares. A mediados de enero, el gobierno anunció la ampliación de la banda de flotación
cambiaria, sin que la devaluación resultante de 8% consiguiera frenar la demanda de
dólares y la pérdida de reservas.
22
Tras sólo dos días de operación del nuevo régimen, se pasó a la libre flotación, lo que
supuso una devaluación superior: a fines de enero, la cotización del dólar llegó a 1.98 reales
por dólar (frente a 1.21 reales antes del cambio de la política cambiaria), lo que
representaba una devaluación algo superior al 60% (Saínz & Calcagno, 1999).
Como fue el caso de las crisis de los países latinoamericanos, las crisis de los 90’s son el
efecto de las resoluciones establecidas en materia de política económica como respuesta la
crisis de la deuda de la década de los 80. La apertura y desregulación financiera generarían
el ansiado control de precios, atracción de inversión extrajera, incremento de la
competitividad y productividad. El caso de Brasil fue caracterizado de igual forma por un
aumento considerable de las entradas de capital extranjero en un contexto de tipo de cambio
semifijo, con el objetivo de contener la inflación e incentivar la entrada de capital
extranjero. Se suponía que el ancla cambiaria permitiría la estabilización de precios y
potenciaría la entrada de capitales, en realidad si se generó una entrada de capital masiva
con estas medidas pero por el contrario se generó una apreciación de la moneda y un
aumento del déficit comercial, lo que provocó un aumento del déficit de cuenta corriente y
la consecuente devaluación del real.
Las entradas de capital fomentaron una expansión del crédito comercial destinado a
actividades que fomentan el incremento del riesgo crediticio, cambiario y de liquidez.
Además, representaron el aumento de la deuda externa de corto plazo. El control del tipo de
cambio a través de bandas de flotación, una moneda apreciada, elevado déficit en cuenta
corriente, crecimiento de la deuda a corto plazo y el incremento de la dependencia de los
flujos de capital, en este escenario se generaron ataques especulativos contra la moneda y
como consecuencia pánico financiero. La devaluación de comienzos de 1999 puso fin a una
etapa de la política económica brasileña iniciada con el lanzamiento del Plan Real. El
programa de estabilización implementado es el precedente de en un proceso de profundas
reformas macroeconómicas e institucionales.
23
El período 1994-95 resultó extraordinariamente exitoso, se aceleró el crecimiento
económico, mejoraron las condiciones de vida de la población, el balance fiscal mostraban,
hasta mediados de 1995, superávit primario y déficits operativos reducidos. La situación de
balanza de pagos era sólida, la economía no se vio significativamente afectada por la crisis
mexicana y, sobre todo, se había controlado la inflación el principal problema brasileño al
iniciar el Plan Real, sin pasar por una recesión.
Es a partir de 1996 que comenzaron a aparecer síntomas de dificultades, el debate de
política económica a seguir que imperó fue mantener el tipo de cambio y la estabilidad de
precios en presencia de déficits crecientes de balanza de pagos y del sector público. En
particular, se empezó a cuestionar la capacidad de crecer con un esquema que privilegiaba
mantener el tipo de cambio como instrumento para la estabilidad de precios. La realidad fue
que se subestimó la creciente vulnerabilidad externa que enfrentan los países en desarrollo
en el actual contexto internacional y se sobreestimaron los efectos que las reformas
neoliberales en la transformación productiva y el crecimiento económico.
Es cierto que la recuperación de la demanda interna, el establecimiento del Mercosur y la
apertura externa llevaron a mayores inversiones y a una reforma administrativa de las
empresas. No obstante, no llevaron a una clara expansión de la capacidad productiva. Más
aún, todo parece indicar que importantes sectores empresariales siguieron colocando parte
de sus excedentes en papeles de la deuda pública, lo que pone en evidencia que las elevadas
tasas de interés. El tipo de cambio vigente y la apertura, no gestaron un ambiente
económico adecuado para desencadenar un proceso dinámico de inversión. La prevalencia
de la política económica y monetaria, terminaron por frenar los cambios de fondo de la
economía real, acentuando los desequilibrios externos e impidiendo la reducción de la
deuda pública pese a las privatizaciones realizadas.
24
Se puede entender la crisis financiera Brasileña y el resto de las crisis presentadas en
Latinoamérica como una crisis de liberalización. Se dio un proceso de sobre consumo, por
ejemplo el crédito al sector privado fue de 31% del PIB previo a la crisis. La deuda externa
era fundamentalmente pública, la inversión extranjera era mayoritariamente de cartera. La
deuda acumulada de Brasil se hizo insostenible al elevarse las tasas de interés y de la
apreciación del dólar como consecuencia del déficit comercial y fiscal de Estados Unidos.
La contracción de la deuda interna fue utilizada como mecanismo para asegurar el
financiamiento de los pagos al exterior, pero esta situación generó el aumento de la tasa de
interés interna y la consecuente devaluación. En el caso de la crisis brasileña no generó un
efecto de contagio regional, ya que fue rápidamente atendida por el FMI y culminó con la
contracción de la producción generando prácticamente crecimiento cero en 1998 y 1999
(Cruz & Lapa, 2012).
1.2.6 La crisis en Argentina (2001)
Como todos los países que sufrieron la crisis de la deuda, Argentina presentaba problemas
estructurales, déficit fiscal, la expansión del gasto público financiada con emisión de deuda,
crédito interno y deuda externa que desembocan en una recesión con inflación y
devaluación de la moneda. Derivado de este periodo de recesión se aplicaron medidas
económicas como privatización de empresas paraestatales, apertura comercial,
desregulación, etc. Así se estabilizaron las finanzas públicas de los países deudores, sin
embargo quedaba un eslabón incompleto, el tratamiento del tipo de cambio. México, Brasil
y Argentina optaron por un régimen cambiario fijo que aparentemente permitía controlar la
inflación, pero al mismo tiempo generaba un déficit insostenible en la balanza comercial y
caída del crecimiento económico (Blanco Cruz, 2002).
25
La utilización del tipo de cambio como ancla inflacionaria hasta la devaluación de la
moneda era la política generalmente aceptada, sin embargo mantener el tipo de cambio fijo
generaba un fuerte déficit en la balanza comercial y un aumento en el endeudamiento
externo. El déficit de la balanza comercial argentina es resultado de más de dos décadas de
régimen de tipo de cambio fijo y un deterioro recurrente de los términos de intercambio,
combinado con una política fiscal inconsistente y apertura comercial desmedida.
Después de experimentar con el Plan Austral, el Plan Primavera y el Plan Bonex, se optó
por el Plan de Convertibilidad aplicado por Cavallo en 1991. Consistía en establecer la
paridad con el dólar, limitar los cambios de base monetaria con base en el cambio de las
reservas del país, prohibir los préstamos del banco central a bancos provinciales, consolidar
el programa de privatizaciones y generar la mayor apertura comercial posible (Blanco Cruz,
2002). Como principal resultado del programa, la inflación disminuyó a un estado
deflacionario peligroso, que generó un alto nivel de desempleo, déficit comercial y
desaceleración del crecimiento económico. El problema fue en esencia una combinación
desafortunada de políticas económicas no razonadas de acuerdo con la evidencia empírica
generada, una ley de convertibilidad cambiaria con apertura sin control, expansión del gasto
público irrestricto y un sistema bancario no regulado.
El mantenimiento de la paridad cambiaria se financió con deuda externa, cuando las
condiciones de la deuda externa cambiaron y fueron desfavorables Argentina dejo de pagar
su deuda pública. Argentina es una de los países que aplicó de manera más ortodoxa las
reformas neoliberales, a través de una liberalización de la cuentas de capitales abrupta y un
tipo de cambio rígido. Por otra lado, el eje político se volcó hacia un gobierno neo-
populista con todos su bemoles, De la Rua mantuvo la ley de convertibilidad sin
modificaciones, intentó ajustar las finanzas públicas y contraer el gasto, con lo cual solo
alertó al mercado evidenciando que no habrían reformas de fondo, posteriormente Duhalde
opta por devaluaciones a medias, se pronuncia contra la dolarización y busca renegociar la
deuda en forma directa, finalmente Argentina negoció el pago de una fracción de la deuda
comprometida total1.
1 El 1 de junio de 2004 el gobierno anuncia la "propuesta de Buenos Aires" para reestructurar los pagos de la deuda. En
26
Se propició una regeneración de la intermediación financiera, así como un incremento de
las entradas de capital extranjero al aumentar la inversión extranjera directa aspecto que fue
apoyado por las privatizaciones y bancos públicos. Lo anterior generó un aumento del PIB
significativo al presentar una tasa de crecimiento promedio anua de 6.7% en el periodo
1991-1997. El problema de la política cambiaria aplicada es que se limitó la capacidad para
recurrir al manejo del tipo de cambio si no también a la política monetaria anti cíclica. Es
imposible conjuntar una política de tipo de cambio fijo, libre movilidad de capital y
autonomía en la política monetaria.
Un elemento relevante que coadyuvo a la gestación de la crisis fue la fuerte entrada de
capital extranjero derivado de las privatizaciones de empresas paraestatales y los
diferenciales de tasa de interés presentados, la entrada masiva de capital fue la vía de
transmisión del riesgo de una crisis financiera a toda la economía. Así mismo, se generó
una apreciación sustancial de la moneda en todo el periodo previo a la crisis, derivado de la
inercia inflacionaria, el aumento de la cotización del dólar desde 1995, la devaluación del
real brasileño en 1999 y la depreciación del euro en el año 2000. En 2001 el peso se había
apreciado 80% respecto de 1990. Esta depreciación del peso generó un efecto negativo en
las exportaciones y el consecuente aumento del déficit de cuenta corriente.
En cuanto a los mercados financieros, la entrada de capital externo generó un crecimiento
significativo del crédito bancario, aumento de la deuda externa y por ende mayor
vulnerabilidad a los cambios en el flujo de fondos del exterior, el crédito como proporción
del PIB se duplicó entre 1991 y 1998 al pasar del 14% al 30% y en mayor proporción fue
destinado a bienes no comercializables como créditos al consumo, hipotecas y deuda
pública. Esto generó un aumento del riesgo de crédito, cambiario y de liquidez, debido a
este nuevo plan, la deuda original se reducía a promedios de entre el 63 y el 45%. El 14 de enero de 2005 se lanzó oficialmente la operación de canje de la deuda en default, luego de las conversaciones con el FMI. A cambio de los títulos en moratoria de pagos, el gobierno argentino ofrecía tres nuevos bonos:
• El bono Par, que no implicaba disminución del capital original, pagaría un interés inicial del 1,33% que subiría progresivamente hasta alcanzar el 5,25% a los 25 años de su emisión, y tendría un plazo de 33 años (vencimiento año 2038).
• El bono Cuasi Par —que incluía una reducción del 30,1% del capital— pagaría un interés del 3,31% más un coeficiente ligado al índice de precios al consumidor y tendría un plazo de 30 años.
• El bono Descuento —que implicaría una reducción del 66,3% del capital— pero pagaría el mayor interés, 8,28%, y tendría un plazo de 28 años (vencimiento año 2033).
27
que la mayor parte del capital extranjero que entró al país era inversión de cartera, entre
1992 y 1998 hubo un flujo de inversión extranjera de 136 mil millones de dólares netos de
los cuales el 64% eran inversión de cartera. Esto generó que la deuda externa pasara de 63
mil millones de dólares en 1992 a 140 mil millones en 1998 (47% del PIB), esencialmente
se concentró en bonos gubernamentales, pero esta deuda no era sustancialmente mayor a la
del conjunto de las economías emergentes (Bustelo, 2004).
El cociente entre la deuda de corto plazo y las reservas en divisas, 1.3 en 1994 alcanzó en
1998 una proporción de 1.6 y en 2000 de 2.0, generando un alto riesgo de liquidez.
Posteriormente entre 1997 y 1998 la entrada neta de inversión en cartera pasó de 11 mil
millones de dólares a menos 5 mil millones, la entrada neta total de capital extranjero tras
un máximo de 29 mil millones de dólares cayó a 13 mil millones en el 2000 y en 2001
alcanzó el mínimo de menos 11 mil millones (Bustelo, 2004). La economía argentina a
finales de 2001 entró en la recta final de una recesión iniciada a mediados de 1998,
culminando con una fuerte devaluación de su moneda. Fue la consecuencia del Plan de
Convertibilidad adoptado, donde se fijó un tipo de cambio real muy bajo y un tipo de
cambio nominal fijo. Se partió del supuesto de que las fuerzas del mercado corregirían las
sobre/sub valuaciones del tipo de cambio.
La discusión sobre la política cambiaria en Argentina y su efecto en la crisis en que se vio
sumido ese país, parte de la hipótesis de una fuerte sobrevaluación del tipo de cambio real
en la década de los 90, además de un fuerte déficit en cuenta corriente como evidencia de la
fuerte sobrevaluación de la moneda. Hubo una importante entrada de capitales, inducida
por costos laborales reales decrecientes y por lo tanto tasas de ganancia crecientes, el
ingreso de capital junto con la política de convertibilidad cambiaria produjo una baja
relativa en los precios de las mercancías. Las presiones deflacionarias se intensificaron en
1997, la tasa anual de crecimiento de los precios al productor fue de -1.4%, a partir de 1998
los precios al productor directamente comenzaron a disminuir -5.3% hasta 2001 (Féliz,
2009).
28
El fenómeno deflacionario generó malas señales para los inversionistas que observaban una
caída en la rentabilidad, ya que una disminución de precios genera un mejor flujo de
fondos, así como dificultades para cubrir pasivos lo cual se traduce en problemas
financieros en las empresas y en consecuencia para el sistema bancario y financiero en
general. Por su parte el sector privado no financiero incrementó su endeudamiento externo
entre 1991 y 1998 en 30 mil millones de dólares. El sector financiero se endeudó en 20 mil
millones de dólares adicionales y el sector público en casi 24 mil millones. La acumulación
de deuda significó otro problema, a partir del año 2000 se impulsaron acciones para
garantizar la sostenibilidad de la deuda como paquetes fiscales que permitieran mejorar la
confianza en un contexto deflacionario.
El riesgo país se incremento a partir del comienzo de la crisis en 1998, entre diciembre de
2000 y diciembre de 2001, los depósitos del sistema financiero cayeron 25%, mientras que
la fuga de capitales alcanzó los 12, 247 millones de dólares. El endeudamiento externo se
contrajo, se detonó la crisis bancaria, la pérdida de reservas y el “corralito financiero”
(Féliz, 2009). Finalmente se produjo la devaluación de la moneda argentina el primer día
hábil del 2002, de 2001 a 2002 se dio una devaluación de 209.4% en promedio, lo cual
generó una caída consecutiva de los salarios reales. En 2002 el peso se depreció en los
primeros nueve meses del año en 350%, la inflación alcanzó una tasa de 25.9% en ese
mismo año, la recesión se acentuó después de una baja del PIB de 4.4% en 2001 cayó 11%
en 2002 y el desempleo alcanzó una tasa del 18% (Bustelo, 2004).
Existen diferentes explicaciones sobre las causas de la crisis Argentina, las más aceptadas
hacen referencia a la incompatibilidad entre el régimen cambiario y políticas fiscales
inconsistentes, aunado a la contracción del flujo de capital de los mercados internacionales
tras la crisis rusa de 1998 y la crisis brasileña de 1999. En realidad las variables
macroeconómicas principales no mostraban una gran diferencia respecto a los países de la
zona, como efecto de la crisis asiática, la crisis rusa y brasileña en los mercados.
29
El problema esencial de la economía argentina fue el programa de estabilización, basado en
el tipo de cambio adoptado en 1991, el periodo a observar en el análisis de las variables
macroeconómicas es a partir de 1991 hasta 1998, ya que en 1999 la crisis ya se había
detonado (Bustelo, 2004). Aún cuando se identifique como principal problema la política
cambiaria, esta generó algunos beneficios para la economía argentina, ya que permitió
disminuir la inflación, las tasas de interés y el consecuente incremento de la inversión.
Es relevante destacar las similitudes estructurales presentadas en las crisis de los países
latinoamericanos y asiáticos, aspectos tales como el ancla cambiaria utilizada, liberación
financiera, entrada masiva de capitales, asignación inadecuada del crédito, apreciación
sustancial de las monedas en términos reales, déficit en la balanza de cuenta corriente,
incremento de la deuda externa a corto plazo y los efectos de los ataques especulativos de
los mercados internacionales. La liberalización financiera se dio en dos vertientes, apertura
financiera y desregulación financiera, la apertura permitió la entrada masiva de capital y la
desregulación propició los comportamientos especulativos en las inversiones.
La mala asignación del crédito se vio reflejada en la colocación de créditos al consumo e
hipotecarios principalmente, no se canalizaron inversiones importantes a actividades
enfocadas a la exportación o sustitución de importaciones. El proceso subyacente que
detonó la crisis fue el endeudamiento generado debido a la fuerte entrada de capital como
inversión de cartera destinado esencialmente a la compra de bonos gubernamentales.
30
1.2.7 La crisis hipotecaria en Estados Unidos (2007)
Después de un periodo de estabilidad en la segunda mitad de la década de los noventas,
inició una nueva etapa de descenso en la actividad económica de Estados Unidos. Inició la
quiebra de varios fondos de inversión y empresas relacionadas con el “boom del internet”,
tal fue el caso de Enron y Worldcom. Con el ataque a las torres gemelas y el inicio de la
invasión a Irak, se iniciaron una serie de políticas enfocadas a la reactivación de la
actividad económica, bajas impositivas a los estratos de mayores ingresos, aumento del
gasto gubernamental en seguridad y defensa. Las intervenciones armadas en medio oriente
tuvieron un fuerte impacto en el déficit público que en 2007 representaba el 76% del PIB,
esto generó una fuerte dependencia financiera en relación con las naciones acreedoras,
especialmente Japón, China y los países petroleros del medio oriente. Esto generó a su vez
una pérdida de valor del dólar respecto al euro, alcanzando un tipo de cambio de 1.5 dólares
por euro en 2008, partiendo de una relación uno a uno a inicios de la década (Dabat, 2009).
Inició una espiral especulativa con el nacimiento de productos financieros cada vez más
sofisticados y riesgosos, captando importantes montos de capital que buscaban maximizar
ganancias, las empresas operaron con un alto grado de apalancamiento. La estructura del
mercado interno estadounidense también sufrió modificaciones, el ingreso de las familias se
contrajo significativamente, de 58 mil dólares en el año 2000 a 55 mil dólares en 2005, lo
cual generó una expansión del consumo financiado a través del crédito (Rapoport & Brenta,
2010).
La apertura de nuevos mercados y la globalización de capitales como de empresas
buscando minimizar costos de producción, generó desempleo y sobre oferta de mano de
obra, creando así una nueva crisis de sobreproducción. Una respuesta ante este escenario
fue estimular la oferta de crédito que mediante el vehículo que representaron las
innovaciones en instrumentos financieros generaron altos niveles de especulación. Fue el
caso de las hipotecas inmobiliarias de alto riesgo, otorgadas a individuos que no calificaban
para ser sujetos de un crédito hipotecario.
31
Sin embargo, con la expansión del crédito las reglas se flexibilizaron y se otorgaron
créditos de manera irrestricta, este tipo de créditos se vincularon a la economía real y a
otros sectores a través de la titularización de dichas deudas, en sofisticados productos
financieros. El sobreendeudamiento crediticio generó una sobre oferta de viviendas, lo cual
ante una alza en las tasas de interés y cuando los bancos quisieron recuperar los créditos,
generó que los propietarios se declararan insolventes, los inmuebles se desvalorizaron, se
hundiera el sistema bancario, el mercado inmobiliario y la industria de la construcción,
generando eventualmente un efecto recesivo en todos los sectores.
Se trató de una crisis diferente de las vividas por los países en vías de desarrollo, que
denotaban problemas en cuenta corriente, en el mercado cambiario, déficit fiscal o sobre
endeudamiento externo. En el caso de Estados Unidos se vio una crisis motivada por
aspectos financieros y bancarios, gestada en una coyuntura de crecimiento sostenido en el
mundo. Por ello el efecto de la crisis hipotecaria iniciada a mediados de 2007 mostró sus
efectos en la economía mundial hasta mediados de 2008. Es claro que el efecto de la baja
en la actividad económica sufrida en 2001 fue el preludio de la recesión de 2007. Según
algunos autores la recesión de 2007 es el cierre del ciclo recesivo iniciado en 2001, así esta
crisis no sólo fue resultado de una sobreacumulación de capital en sectores de punta, si no
efecto de la creciente desvinculación entre el sector financiero y el sector real, el creciente
papel del capital financiero netamente especulativo fue el vehículo diseminador de la crisis
(Dabat, 2009).
Después de 20 años de dirigir el crecimiento conducido por la revolución informática se dio
un proceso de sobreacumulación de capital que se vio gestado en el sector de la
informática, agravado por la baja en la tasa de ganancia derivada de la pérdida de
competitividad frente a los países orientales y asiáticos, generando un importante déficit
comercial. En 2003 se inició la recuperación y se tomó como punta de lanza el mercado
inmobiliario. La crisis fue consecuencia de otros síntomas que no se habían observado, al
menos no de manera simultánea, el nuevo sistema financiero operaba a partir de fenómenos
como la titularización, desregulación del crédito, el avance informático aplicado como
coadyuvante de la circulación del dinero, la globalización financiera y el aumento de la
32
operación con productos financieros derivados. Los nuevos fondos que buscaban
maximizar sus rendimientos a lo largo del planeta sin restricciones y regulación alguna. La
aparición de instrumentos sintéticos o empaquetados como los CDO2 (collateralized debt
obligation), marcó el inicio de un amplio periodo de predominancia de inversiones
especulativas.
En el siglo pasado la especulación se concentraba en operaciones de arbitraje, entre tipos de
cambio y tasa de interés de economías en proceso de integración a la globalización. Los
denominados Hedge Funds realizaban operaciones de arbitraje a lo largo del mundo,
detonando sucesivos ataques especulativos contra diversas monedas, tal es el caso de
México (1995), Argentina (1999), Asia oriental (1997) y Rusia (1998). La consecuente
estabilización monetaria de estos países y la quiebra de algunos fondos debido a sus
mismas operaciones (el caso de Long Term Capital Management con la crisis asiática)
contrajo el potencial especulativo, y condujo la especulación internacional hacia los
mercados de alta tecnología que culminó en la crisis de internet en 2000. Los incentivos
fiscales y la estructura de precios del mercado inmobiliario y la caía de los valores
bursátiles en 2001 generó un desplazamiento del capital hacia el mercado inmobiliario
(Dabat, 2009).
La baja en la actividad económica estadounidense en 2001 marcó el inició de la crisis
hipotecaria, debido a los ajustes de política económica a que se recurrió, como la reducción
de tasa de interés por debajo de la tasa de inflación para reactivar la economía, así como la
reorientación de los fondos especulativos del mercado bursátil al mercado inmobiliario, en
gran parte por la baja en la rentabilidad de los mercados especulativos tradicionales.
Además, de niveles históricos de precios bajos de los activos inmobiliarios, en comparación
con otros activos en adición a incentivos fiscales e impositivos, que guiaron al capital
especulativo hacia el mercado hipotecario.
2 Los CDO son activos financieros mediante los cuales se empaqueta un crédito en diferentes rangos de riesgo rendimiento. La supuesta segmentación según el nivel de riesgo brindaba protección ante la moratoria, ya que los rangos mejor calificados tenían asegurado el nocional, no siendo así en los rangos más bajos en calificación crediticia que compensaban el mayor riesgo con mayores niveles de rendimiento pero sin garantías.
33
Estados Unidos fue el centro del nuevo sistema financiero internacional, precursor de la
titularización del crédito y de la globalización financiera, hacia finales de 2007 el valor
nocional de los instrumentos derivados operados a nivel mundial representó cerca de 10
veces el PIB mundial, en el caso de Estados Unidos esta proporción fue de 20 veces. Como
se mencionó previamente las innovaciones financieras tomaron preponderancia en las
inversiones realizadas, la colateralización y estructuración del crédito, así como el
surgimiento de nuevos agentes. El mecanismo de gestación y transmisión de la crisis
inmobiliaria fue el siguiente (Salazar, 2008):
a) Los acreedores hipotecarios vendían los títulos hipotecarios a originadores
bancarios y no bancarios. Estas carteras de títulos agregaban hipotecas de diversa
calificación, incluyendo las hipotecas subprime3.
b) Los originadores transfirieron los títulos a bancos de inversión o instituciones
hipotecarias quienes titularizaron los créditos hipotecarios y los transfirieron a
agentes intermediarios empaquetadores.
c) Los empaquetadores (generalmente bancos de inversión) quienes empaquetan los
créditos en forma de CDO u otros vehículos de inversión. En esta alquimia se
transformaban canastas heterogéneas de hipotecas en títulos de alta calidad. Los
CDO integraban los títulos hipotecarios y vendían bonos propios, donde los
ingresos esperados de los títulos hipotecarios se dividen en varios tramos, según el
riesgo de la cartera hipotecaria subyacente. Además se crearon los CDO sintéticos
que compraban y vendían derivados sobre las carteras de títulos hipotecarios.
d) Los compradores eran generalmente SIV (vehículos estructurados de inversión por
sus siglas en inglés) y conformaban el último eslabón. El SIV obtenía recursos
baratos de corto plazo en el mercado de dinero y lucraba con la diferencia entre la
tasa de interés que pagaba y la tasa que recibía de su cartera de CDO de largo plazo.
e) Las agencias calificadoras respaldaron estas emisiones con dictámenes favorables
asignando las más altas calificaciones crediticias y las aseguradoras de riesgo de
crédito aseguran los activos y funcionaban como aval.
3 Se trata de hipotecas otorgadas a sujetos de alto riesgo, que no pueden garantizar un ingreso fijo ni cuentan con historial crediticio.
34
f) Finalmente los CDO y demás vehículos de inversión se lanzaron al mercado con las
mejores calificaciones y con significativos rendimientos. Como resultado hubo una
alta demanda de estos activos por parte de intermediarios financieros diversos como
bancos, aseguradoras, fondos de inversión, fondos de pensiones, casas de bolsa,
además de todo tipo de empresas.
El efecto neto de este proceso fue una separación entre cuerpo y espíritu del valor del
capital, ya que el acreedor hipotecario se disocia del deudor y la deuda se segmenta y
distribuye mediante innovadores vehículos de inversión que mezclan diferentes niveles de
riesgo. La opacidad de los modelos y métodos del proceso de titularización hipotecaria
generaron un déficit entre el valor presente de los flujos de ingresos titularizados y el precio
de mercado de los títulos, se desconocía el valor real de los títulos que conforman los
portafolios de los inversionistas. El mecanismo de transmisión hacia la economía real fue
evidentemente la saturación de los balances de las empresas con activos tóxicos o de muy
alto riesgo, que se difundieron a través de todo el sistema.
Con el inicio de la caída de los precios de los inmuebles debido a la suspensión de pagos de
los compradores de viviendas subprime ante el alza de las tasas de interés, el mercado
hipotecario cayó y de manera simultánea el sector bancario y la bolsa de valores, el
consumo, empleo y el producto. Se identifican elementos característicos que determinaron
la magnitud de la crisis, los síntomas detectados en el periodo de gestación y desarrollo de
la crisis son los siguientes:
a) Opacidad de la estructuración financiera de las titularizaciones
b) Metodologías de titularización que minimizaban la revelación contable del riesgo
asumido, debido al incentivo de evitar mayores requerimientos de capital
c) Las operaciones con derivados y CDO’s permitían que las entidades financieras
crearan pasivos contingentes que no se registraban en la contabilidad
d) Ausencia de fuentes de información confiable
e) Ausencia de vigilancia y supervisión de los mercados de derivados
f) Requerimientos inadecuados de capital para las instituciones financieras
35
La crisis generó una caída en la demanda agregada (caída de 3.5% del PIB en 2009), y el
caso más representativo a nivel sectorial fue la caída del sector automotriz que culminó con
la nacionalización de General Motors, que presentó pérdidas de operación hasta por 13 mil
millones de dólares en 2008. Chrysler y Ford presentaban problemas similares, la venta de
automóviles en Estados Unidos cayó de 17 millones en 2006 a 10 millones en 2009
(Rapoport & Brenta, 2010). El impacto más significativo, fue la quiebra de los principales
bancos de inversión y numerosas entidades de inversión tanto en Estados Unidos como en
Europa, efecto del gran desarrollo de la globalización financiera en el mundo.
El gobierno tuvo que intervenir para rescatar a sus entidades financieras y evitar un mayor
colapso en el sistema, se intentó reactivar la demanda con constantes bajas en la tasa de
interés pero no fue suficiente, en octubre de 2008 se aprobó en el Congreso norteamericano
un rescate bancario por 700 mil millones de dólares. Se hizo evidente la necesidad de
mayor regulación para evitar episodios parecidos en el futuro, al no existir reglas claras
sobre las inversiones fuera de balance y en especial sobre las operaciones con derivados
financieros y productos estructurados.
1.2.8 La crisis en la Unión Europea (2008)
El tratado de Maastricht firmado en febrero de 1992 tuvo como resultado la creación de una
unión monetaria en Europa, que desembocaría en la integración de una moneda única. Con
la creación de un Banco Central Europeo se culminó un proceso de integración con una
unión monetaria, dicho proceso que inició en 1990 con la libre movilidad de capitales y el
final del mercado único, reforzando la coordinación y vigilancia multilateral de las políticas
económicas. La segunda etapa del proceso inició en 1994 cuando inició labores el Instituto
Monetario Europeo y aquellos países que aspiraban a formar parte de de la unión fueron
sometidos a una serie de medidas referentes a la independencia de los bancos centrales y al
financiamiento de los déficit públicos.
36
Se trataba de un proceso de privatización de las finanzas públicas que obligaba a los
estados a financiarse con bancos comerciales en las mismas condiciones de un agente
privado. Otro grupo de medidas se refiere a la convergencia económica (Guillén Romo,
2011):
a) Las tasas de inflación de los países candidatos no debían superar el 1.5% las de los
tres países con menor inflación
b) El déficit presupuestal no debería superar 3% del PIB
c) La deuda pública no debería exceder 60% del PIB
d) El margen de fluctuación estrecha de los tipos de cambio dentro del sistema
monetario europeo debería ser respetado al menos dos años sin devaluación
e) Las tasas de interés a largo plazo no deberían exceder en más de 2% el promedio de
los tres estados que hayan tenido los mejores resultados en materia de estabilidad de
precios
La tercera y última fase fue la fijación de los tipos de cambio de los países aspirantes a la
unión, el Banco Central Europeo sustituyó al Instituto Monetario Europeo, en 1997 los
estados miembro se comprometieron en pacto de estabilidad y crecimiento que refuerza el
tratado de Maastricht. La soberanía monetaria del estado se sobrepasa a cambio de una
moneda supranacional que es administrada por una banca soberana independiente de la
influencia política.
Así, los estados miembros de la Unión Económica y Monetaria se comprometieron a
respetar las reglas del Pacto de Estabilidad y Crecimiento, firmando el Tratado de
Ámsterdam en 1997. Es importante mencionar que de los objetivos del pacto se destaca
que no tiene objetivos de crecimiento ni pleno empleo, además el pacto restringe los
mecanismos estabilizadores de la economía ante un periodo de recesión, ya que limita los
márgenes de maniobra presupuestal, la política económica es restringida excluyendo toda
política presupuestal, no se cuenta con federalismo presupuestal.
37
La estructura definida para la unión económica y monetaria funciona en tiempos de
estabilidad aunque la zona del euro carezca de coherencia interna. Se pretendió con la
conformación del Banco Central Europeo y de la unión en sí misma, desaparecer la
heterogeneidad de la estructura económica de los países miembro. Sin embargo, en
periodos de inestabilidad y turbulencia estas diferencias salen a relucir y desembocaron en
la problemática que vive actualmente la Unión Europea. Las condiciones óptimas para
sostener la unión monetaria son flexibilidad en precios y salarios y movilidad de la mano de
obra, supuestos difícilmente logrados en la realidad. Una unión monetaria entre países con
distintos niveles de inflación, sistemas fiscales, desarrollo estructural y organización
laboral, requerirá un gran capital político para poder consensuar la toma de decisiones.
Mundell (1961) y McKinnon (1963) afirman que una medida de evitar las crisis cambiarias
es la división del mundo en áreas monetarias óptimas, siempre y cuando exista movilidad
factorial, y vislumbran como principal reto el orden político, la soberanía e identidad
nacional. El área monetaria óptima debería tener como objetivos esenciales, el pleno
empleo, equilibro externo y estabilidad de precios, entre mayor sea el flujo comercial y la
movilidad de los factores menos eficiente será un tipo de cambio flexible y será más
adecuado utilizar una moneda única para poder alcanzar el pleno empleo y el equilibrio
externo (Guzmán & García, 2010). En la práctica, estas condiciones estuvieron lejos de
materializarse en la Unión Europea, la condición que si se cumplió fue el aumento en el
comercio, sin embargo no se dieron mayores cambios respecto a la flexibilidad de precios y
salarios, ni tampoco se ha abordado el aspecto fiscal.
La crisis iniciada en 2007 en Estados Unidos afectó directamente a Europa a través de los
bancos de la región involucrados en el negocio de las subprime. La crisis impactó en mayor
medida a los países más débiles de la zona del euro, debido esencialmente a los niveles de
endeudamiento. En octubre de 2007 las principales bolsas europeas comenzaron a caer
debido a la crisis originada en Estados Unidos, tal fue el caso del índice español IGME que
descendió 53% de octubre de 2007 a febrero de 2009, el Dax 30 de Alemania bajó 40%, el
FTSE de Londres bajó 38%, CAC de Francia 50%.
38
Las bolsas tocaron fondo en 2008 como efecto de la quiebra de Lehman Brothers en
septiembre, como respuesta se lanza el Plan de Recuperación Económica Europea con un
paquete de rescate por 200 mil millones de euros y a pesar de la fuerte caída de dichos
índices repuntaron a finales de 2009, pero en 2010 nuevamente se vieron indicios de
problemas económicos. Existe una gran vinculación entre la economía de Estados Unidos y
la de los países de la zona del euro debido a la interconexión de sus mercados financieros.
En la figura 4 se observan los promedios móviles a 3 años del crecimiento del PIB de
ambas economías, a partir de 2007 cuando se generó la crisis subprime el PIB de la zona
del euro comenzó a decrecer, hasta 2011 la zona del euro en general no presenta
recuperación caso contrario en Estados Unidos.
Figura 4. Promedios móviles del crecimiento del PIB: Zona del euro y Estados Unidos.
200-2011.
Fuente: Elaboración propia con datos del Banco Mundial.
Paradójicamente los problemas de sobre endeudamiento en la zona del euro se asemejan a
los enfrentados por los países en desarrollo en la década de los 80’s. Italia en 2010 tenía
una deuda que representaba el 116% del PIB, Bélgica 99%, Alemania 79.6%. Ninguno de
estos países cumplió con el acuerdo de Maastricht al ingresar a la eurozona.
-15%
-10%
-5%
0%
5%
10%
15%
20%
25%
30%
2000 2001 2002 2003 2004 2005 2006 2007 2008 2009 2010 2011
% Variación
Zona del euro Estados Unidos
39
El euro presenta serias dificultades al implementar políticas monetarias estabilizadoras, el
euro no es capaz de estabilizar el sistema de precios entre los países, ya que depende de
políticas económicas locales en cada país, el no contar con una moneda propia limita
ajustar variables internas. La crisis que actualmente vive la Unión Europea fue
consecuencia de una serie de eventos que impactaron directamente las variables
económicas, es el caso de la crisis inmobiliaria de Estados Unidos en 2007 y la consecuente
crisis financiera y bancaria que posteriormente se traslado a la esfera real. Posteriormente
en 2010 cuando pareciera que se estabilizaba el sistema económico, el deterioro de las
finanzas públicas y el endeudamiento público generaron una crisis de deuda soberana en la
zona del euro.
Los planes de rescate bancarios y la amplitud de los programas de reactivación posteriores
a la crisis subprime se tradujeron en un alza significativa en la relación deuda pública
respecto al PIB. Grecia fue el país más amenazado por los déficit públicos presentados,
mismos que se habían subestimado, lo que inició una espiral especulativa incentivada por
las operaciones con CDO soberanos adosados a la adeuda de un estado, lo que abrió la
posibilidad de especular con deuda sin necesidad de poseerla.
Desde finales de 2009 a inicios de 2010 los dirigentes europeos incentivaron la
especulación a través de una serie de declaraciones contradictorias, lo que generó la
percepción en los mercados de que Europa no tenía un gobierno ni una política económica
y presupuestal común y sólida (Guillén Romo, 2011). En junio de 2010 la agencia
calificadora Moody’s degradó la calificación de la deuda pública griega y dado que había
una gran cantidad de transacciones entre bancos extranjeros con títulos griegos se dio una
ola de caídas en las bolsas y tasas de interés europeas, el 80% de la deuda griega estaba en
el mercado europeo. Grecia fue la muestra de la falta de organización de la zona del euro,
así inició una ola especulativa acerca del incumplimiento de algunos países de la zona del
euro, en especial se identificaban problemas con Grecia, Irlanda, España, Portugal e Italia.
40
Ante una falta de reacción por parte de las autoridades europeas, la especulación se
extendió a otros títulos de deuda pública de los países más vulnerables como España y
Portugal, además de aquellos más endeudados como es el caso de Italia. Las autoridades
monetarias reaccionaron mediante la inyección de 60 mil millones de euros, además de
garantías gubernamentales asociadas por 400 millones de euros con el propósito de comprar
la deuda de aquellos países más frágiles y evitar el colapso del euro.
Adicionalmente, el FMI destinó recursos por 250 mil millones de euros para tratar de paliar
la situación. Con el objetivo de mantener la estabilidad a partir de 2010 y 2011 se
implementaron políticas de austeridad restrictivas en muchos de los países de la zona del
euro. Tal es el caso de Inglaterra, Italia, Alemania, Francia, España, Grecia, Portugal,
Irlanda, Dinamarca y Rumanía, que bajo la presión de los mercados en 2010 iniciaron la
aplicación de programas para establecer el equilibrio de las finanzas públicas, programas de
austeridad similares a los aplicados en América Latina en los años 80 (Guillén Romo,
2011). El objetivo era disminuir los déficits públicos a menos del 3% y acercar la deuda
pública al 60% del PIB. Se trata de una estrategia singular ya que ante un déficit, la
reacción es una baja en los gastos o un alza en impuestos, lo que desemboca en una
contracción aún mayor del producto, las deudas privadas se transformaron en un deudas
públicas y transfiriendo el impacto al sistema económico mediante drásticos planes de
austeridad.
La moneda común supone una fuerte integración comercial, así como un nivel avanzado de
especialización productiva, gran movilidad de factores, precios y salarios, así como
mecanismos de transferencia presupuestal. Europa no satisfacía estos criterios, en particular
la movilidad del trabajo y los mecanismos de transferencia presupuestal. En un periodo de
estabilidad la unión parecía funcionar sin ningún problema, lo que permitió difuminar la
heterogeneidad entre naciones, en lo que se refiera a la estructura económica, política y
social. Pero cuando se detonó la crisis estas restricciones se acentuaron y las
contradicciones se hicieron evidentes.
41
Era necesario que más allá de compartir las atribuciones monetarias compartir poderes
presupuestales, cabe destacar que ante la recesión se apliquen medidas aplicadas en
América Latina y que condujeron a la década perdida en un escenario de inestabilidad y
desigualdad. El principal mecanismo de transmisión de la crisis financiera hacia la esfera
real fue la suspensión del crédito a la economía real, esto fue parte del plan ya que la
respuesta de las reuniones de los G-20 fueron mayor supervisión bancaria reflejada en
mayores aportaciones de capital, y se propondría un nuevo nivel de endeudamiento no
basado en riesgo en adición a lo estipulado por los acuerdos de Basilea II4. Como
condiciones implementadas en los bancos europeos se determinó no incurrir en operaciones
de riesgo, esto incluyó las operaciones de factoraje de deudas lo que detuvo prácticamente
el flujo de créditos a la producción (Guzmán & García, 2010).
El efecto en la economía real se reflejó directamente en la producción en 2009, claramente
existe una correlación entre la economía de Estados Unidos y la Unión Europea por lo que
los ciclos que presentan ambas economías son coincidentes. Alemania fue el país que tuvo
la caída más fuerte del PIB con un 5%, seguida por Irlanda, España, Italia, Bélgica, Francia,
y Portugal. Ante un escenario con inflación, desempleo, recesión, déficit en cuenta
corriente y aumento del endeudamiento público; los países de la Unión Europea estaban
limitados a recurrir a la depreciación de la moneda para corregir los desequilibrios.
Los 200 mil millones de euros destinados para atacar la crisis estaban programados hasta
2013, sin embargo los recursos se agotaron en 2009. Se planteó un escenario donde no
habría más apoyos y aquellos países con altos desequilibrios serían candidatos a salir de la
zona del euro, los candidatos fueron Irlanda, Grecia, España, Portugal, Italia y Austria.
Estos países presentaron condiciones similares como dificultades de pago de la deuda
externa, deterioro de los sectores inmobiliario e hipotecario, así como una fuerte rigidez del
mercado laboral.
4 Basilea II es el segundo de los Acuerdos de Basilea, y se refiere a recomendaciones sobre legislación y regulación bancaria emitidos por el Comité de supervisión bancaria de Basilea. El propósito de Basilea II era la creación de un estándar internacional que sirva de referencia a los reguladores bancarios, con objeto de establecer los requerimientos de capital necesarios para asegurar el correcto desempeño y protección de las instituciones frente a los riesgos financieros y operativos.
42
Los tres países con el mayor déficit fiscal eran Grecia con un 12.7%, Irlanda con el 12.5% y
España con 11.25%, cabe mencionar que la postura de la Unión Europea estaba acorde a las
normas establecidas al integrar la unión, respecto a que el Banco Central Europeo tiene
prohibido financiar déficits fiscales, así como los rescates financieros de un país miembro
(Guzmán & García, 2010).
El caso de Grecia puso en tela de juicio uno de los pilares de la Unión Europea, el acuerdo
de no rescates financieros de países miembro, al iniciar la crisis y dar a conocer sus
dificultades de pago a finales de 2009, tras el ajuste de la calificación de deuda soberana.
Sin embargo, en marzo de 2010 los países de la zona del euro y el FMI decidieron aplicar
un paquete de rescate con el objetivo de bajar las tasas de interés, pero las tasas continuaron
a la alza y nuevamente se degradó la calificación de la deuda griega. No existía una postura
clara sobre el rescate de Grecia y esto generó mayor incertidumbre en los mercados, la
crisis fiscal Griega provocó la caída del euro nuevamente en 2010 y de los principales
mercados europeos.
Es necesario destacar el poco margen de acción y la visión de la crisis del Banco Central
Europeo, ya que las acciones establecidas para controlar la crisis solo restringieron el
crédito productivo y con ello agravaron la recesión. Se subraya la imposibilidad de
establecer una política monetaria con una misma tasa para toda la zona del euro, ya que
esto representaba una tasa de interés muy alta para países con baja inflación como
Alemania y una muy baja para países con fuertes presiones inflacionarias, como es el caso
de Portugal, Irlanda, Italia, Grecia y España.
La crisis inmobiliaria en Estados Unidos fue el detonante de las contradicciones ya
existentes en el sistema económico europeo. Los síntomas de los países más afectados en su
sector inmobiliario fueron los mismos, bajas tasas de interés, elevado apalancamiento
externo público y privado, déficit fiscal y subsecuentes degradaciones de calificación
crediticia en un ciclo previo (2000-2005) lo que generó un gran auge en el sector de la
construcción y que derivó en un colapso posterior ante la crisis europea, este fue el caso de
España, Grecia e Irlanda.
43
Hasta ahora no se han observado los efectos totales de la crisis del euro, se desconoce si la
contracción observada de la zona del euro de 4.5% en 2009 y de 0.6% en 2012 es el fondo
de la recesión. La sostenibilidad del euro deberá gestarse en el orden político, de los países
integrantes. Es claro que el rescate de Grecia ha generado una segmentación de lo que
debería ser la Unión Europea en referencia a la estabilidad monetaria basa en el no rescate
financiero y por ende reflejada en la independencia del Banco Central Europeo, y los
riesgos inflacionarios derivados de apoyar a gobiernos con graves desequilibrios fiscales. El
haber dejado de lado el tema de la integración fiscal generó el actual debate sobre el rumbo
de la unión, hay más países con problemas de deuda y desequilibrios fiscales además de
Grecia, aunado a bajo crecimiento económico, altas tasas de interés reales y el problema
potencial del gasto en salud y en pensiones derivado del envejecimiento de la población.
1.3 La necesidad de un nuevo orden financiero internacional
Como se ha descrito a lo largo del capítulo la existencia de las crisis es recurrente en la
historia del sistema capitalista. Los matices, causas y efectos de las crisis se han modificado
a lo largo del tiempo, el proceso de globalización y apertura comercial generaron una
mayor interconexión entre las economías y con ello generaron mayor vulnerabilidad a
choques externos. Las modificaciones de la política económica imperante generaron
recesiones en los países en desarrollo en la década de los 90’s, y lo más contradictorio de la
aplicación del paradigma económico neoliberal es la recesión en que se encuentran los
países desarrollados, promotores de dichas políticas. Es claro que hay economías que
generan un efecto de arrastre en todo el mundo, se identifican bloques económicos, como el
caso de la Unión Europea, Asía y Estados Unidos.
La crisis reciente que se gestó en Estados Unidos pero que culminó con la recesión de la
Unión Europea, tuvo un efecto geopolítico ya que como consecuencia de dicha recesión se
denota una redistribución de la hegemonía internacional. Se vislumbra un traslado de poder
del centro occidental a oriente, un reacomodo de la influencia del Norte al Sur y una
redistribución de fuerzas en Europa. Asia por su parte toma relevancia con China y la India
como ejes.
44
Este no es un proceso nuevo ya que se vio algo similar cuando la Gran Bretaña dejó la
hegemonía mundial y dio paso a Estados Unidos, un periodo de difícil redistribución del
poder mundial y que culminó con las dos guerras mundiales (Tokatlian, 2012).
La globalización tuvo como efecto principal, el debilitamiento de las instituciones
nacionales, la dinámica capitalista impuesta deja de lado las luchas sociales, no existe un
equilibrio entre mercado, Estado y sistema político. La crisis económica que inició en 2007
en Estados Unidos ha hecho evidente la necesidad de una reorganización de la estructura
económica mundial, debido a un choque de clases entre centro y periferia por el aumento de
las desigualdades, el retorno al nacionalismo político y ambigüedad entre globalización y
proteccionismo, se instauró el proteccionismo económico, además de la agudización de las
fronteras mediante la construcción de los muros de Medio Oriente, la frontera entre México
y Estados Unidos y las reformas migratorias en América Latina y Europa.
En algunos países se vio replegada la democracia ante gobiernos autoritarios en la mayoría
de los casos de extrema izquierda, se acentuó la militarización ejemplo de ello es el
aumento de países que poseen armas nucleares y por último la degradación ambiental.
Estos aspectos han definido un sistema económico mundial con algunas fracturas en su
estructura y contrastes significativos entre intereses nacionales y supranacionales, mayor
inequidad y polarización social han generado una serie de contrastes inter e intra países,
situación agravada por las crisis y detonantes de cambios necesarios a nivel económico y
social. Con este escenario planteado a lo largo de las últimas décadas, el orden económico
mundial ha sido cuestionado ante su incapacidad de evitar y controlar las crisis económicas
recurrentes.
Estos periodos de crisis distintos en estructura y efectos son causa suficiente para
cuestionar el papel de las autoridades financieras internacionales como el FMI y el Banco
Mundial. La tendencia manifiesta de ciclos de auge y depresión de los mercados financieros
pareciera no tener control ni solución, esto denota información incompleta e ineficientes
instrumentos de supervisión y control.
45
El incremento de las transacciones financieras a raíz de la liberalización económica, la
flotación de los tipos de cambio y las innovaciones financieras, además del avance
científico en comunicaciones fueron los detonantes de un sistema financiero internacional
fuera de control. La globalización y la interconexión entre operaciones entre países ha
remarcado el efecto contagio ante una situación de crisis, ante inestabilidad estructural y
financiera de una nación el pánico se transmite a otros países con facilidad, con
independencia del grado de fortaleza de sus fundamentales macroeconómicos, estos son las
principales características del liberalismo financiero (Castro Formento, 2000).
El FMI como autoridad monetaria rectora internacional no ha evolucionado a la par con el
mercado y la globalización, ejemplo de ello es la aplicación de programas de ajuste y
recuperación de manera indistinta en periodos de crisis entre países. Es claro que cada
economía tiene especificidades que la caracterizan y abordar todos los episodios de crisis
de la misma forma en todos los países parece una idea poco realista, sobre todo cuando la
experiencia de dichos planes de reestructuración ha demostrado su inoperatividad y rotundo
fracaso. Los programas de recuperación implementados hasta ahora solo han generado
crisis perenes a lo largo del mundo, por ello es necesario implementar una reforma radical
del Sistema Financiero Internacional como un mecanismo de prevención y control de crisis.
Ante los episodios de recesión vividos en el mundo en las últimas décadas se hace
manifiesto que el actuar del FMI está limitado y es poco eficiente. Los recursos y acciones
con que cuenta son limitadas respecto a las magnitudes de las crisis presentadas.
El presente capítulo ha abordado de manera descriptiva la evolución y características de las
crisis recientes, así como la evolución del pensamiento económico y el desarrollo de los
mercados. Se vislumbra la necesidad de un nuevo orden financiero internacional y el
desarrollo de mecanismos técnicos y políticos que permitan controlar la especulación e
incentivar el crecimiento y desarrollo de las naciones. El siguiente capítulo abordará los
aspectos teóricos desarrollados a la par con los episodios de crisis que intentan explicarlas y
preverlas, que hasta ahora parecieran no haber tenido el éxito esperado debido a la
complejidad del tema y al proceso dinámico de las crisis económicas.
46
CAPÍTULO II. MODELOS DE CRISIS FINANCIERAS
2.1 La modelación económica de las crisis
El periodo posterior a la crisis de 1929 y de los acuerdos de Bretton Woods gestados tras la
segunda guerra mundial existen algunos hitos en la historia del capitalismo y las crisis: se
adoptan compromisos de índole económica entre las naciones, se crea el FMI y el Banco,
nace el GATT (General Agreement on Tariffs and Trade por sus siglas en inglés) antecesor
de la Organización Mundial de Comercio. Se establecen instituciones y normas para regular
las relaciones económicas internacionales, sustituyendo el principio del patrón oro.
El nuevo patrón fue viable en un contexto de fronteras económicas delimitadas y control
financiero. Sin embargo, a partir de los años ochenta fueron evidentes ineficiencias en el
mercado, fue necesario replantear la desregularización de los mercados y disminuir la
participación del sector público en la economía. Un nuevo liberalismo a nivel mundial
comienza a tomar relevancia usando como vehículo de transmisión la globalización, se
evoca la imperante necesidad de dejar actuar a los mercados a nivel mundial.
Uno de los pilares del proceso de globalización económica, es la búsqueda de captación de
capitales, sobre todo por parte de los países subdesarrollados ya que esta sería la forma de
alcanzar el desarrollo, según la tesis liberal. En dicho proceso, no existen normas
regulatorias sobre el flujo de capitales, ya que sería una limitante al entorno de liberalismo
económico, y cualquier forma de regulación representaría una desventaja en la captación de
recursos externos.
El tipo de cambio es una variable clave que permite captar la aceptación o aversión por
parte de los inversionistas en invertir su capital en cierto país, por ello dicha variable es el
punto de partida de muchos modelos económicos que tratan de explicar las crisis
financieras, mismos que han evolucionado a lo largo del tiempo y que en la época
contemporánea han enfocando sus esfuerzos hacia el análisis de la información disponible.
47
La principal pregunta que se ha buscado responder a través de la modelación de las crisis
financieras es conocer la sintomatología de estos procesos con antelación y paliar en la
medida de lo posible sus efectos. Históricamente se han distinguido los modelos teóricos de
crisis en tres generaciones.
Los modelos de primera generación se fundamentan en las investigaciones de Krugman
(1979), parten del análisis de los procesos de crisis como una consecuencia de la
inconsistencia entre la estabilidad macroeconómica y el manejo del tipo de cambio. Ante un
déficit gubernamental y una falta de acceso a los mercados de capitales, el gobierno se ve
obligado a generar deuda para solventar sus gastos, el mantenimiento de la paridad del tipo
de cambio y el efecto en la tasa de interés generan salidas de capital y pérdidas de reservas
que desembocan en ataques especulativos. Posteriormente, se realizaron otras aportaciones
que analizan la apreciación del tipo de cambio previo a un ataque especulativo, el
consecuente deterioro en la balanza de pagos y el incremento de la inflación.
Otras derivaciones de este tipo de modelos estudian el efecto de las expectativas en el
desarrollo de las crisis, así Krugman y Rotemberg (1991) actualizaron su modelo inicial y
posteriormente, Flood, Garber y Kramer (1996) incorporaron aspectos de la crisis de 1994
en México. Como otro bloque de investigaciones realizadas para el análisis de crisis se
desarrollaron los denominados modelos de segunda generación, que abordan las crisis
desde una perspectiva de expectativas y reacción ante los periodos de depresión, las
modificaciones en política económica son la respuesta a las crisis y se elimina el supuesto
de la inconsistencia de la política económica. Los modelos de segunda generación se
fundamenten en que las expectativas de los agentes sobre le evolución de la economía
generan un efecto directo en la economía.
48
Por su parte, los modelos de tercera generación evidencian la incapacidad de los modelos
de las dos primeras generaciones en explicar el por qué de las crisis monetarias y
financieras. Por las propias características de las nuevas crisis los modelos de las dos
primeras generaciones eran incapaces de justificar su surgimiento, ejemplo de ello fue el
caso de los países asiáticos quienes hasta la aparición de la crisis habían presentado datos
sólidos en sus fundamentales macroeconómicos, además se observan eventos de contagio a
nivel regional y mundial derivados del proceso de liberación comercial y de libre movilidad
de capitales, por lo que ahora se identifican crisis paralelas al considerar la interacción de
la crisis monetaria y bancaria de manera simultánea. Por lo anterior, el análisis teórico da
un giro y se opta por analizar las crisis mediante modelos de crisis del sector financiero en
su conjunto.
La falta de solidez o justificación empírica de la conceptualización teórica hasta ese
momento planteada, llevaron a un nuevo camino en las investigaciones de los episodios de
crisis, vía modelos empíricos. El trabajo teórico es soslayado en cierta medida por la
modelación estadística en busca de las variables significativas que permitan de alguna
forma prever la existencia inminente de una crisis y así poder actuar antes de que se dejen
sentir sus efectos en el resto de la economía, esta corriente se ha identificado en la literatura
como modelos empíricos.
Las recientes crisis financieras evidencian que han aumentado la frecuencia y severidad de
las mismas, por lo que se ha despertado un interés creciente por intentar explicar la
causalidad de las crisis. De igual manera, se ha dado una mayor importancia hacia la
investigación de las medidas que deberían adoptarse para intentar prever de alguna forma
las consecuencias derivadas de una crisis, tanto por autoridades nacionales como por los
organismos internacionales. El estudio de las crisis financieras tiene muchas vertientes y
puntos de vista, dado que ha sido tema de investigación desde la aparición del capitalismo,
por lo cual dado que se realizará una revisión de la evolución de los modelos que han
intentado explicar ¿por qué se producen las crisis? Es insoslayable que algunos aspectos
que pueden ser interesantes queden fuera el alcance de este trabajo.
49
Como parte de las investigaciones realizadas en Basilea II para el diseño de un nuevo
paradigma de supervisión de instituciones financieras, las principales diferencias entre las
crisis más recientes con respecto a las anteriores a 1994 son:
a) Las crisis habían aparecido hasta el 2007 principalmente en economías emergentes
b) Algunas de las economías que sufrieron crisis eran economías que presentaban
fortalezas en sus fundamentos macroeconómicos por lo que la crisis era inesperada
c) La magnitud de las crisis, tanto en balanza de pagos como en el producto, fueron
superiores a lo que se podía prever
d) El efecto de contagio se maximizó a partir de la globalización
Los modelos existentes eran poco útiles a la hora de analizar la nueva coyuntura, hasta la
crisis de México en 1994, se pensaba que eran un problema de financiación de la balanza
de cuenta corriente en economías con represión financiera, a lo que se ha denominado crisis
de estilo antiguo. Sin embargo, a partir de esa crisis en adelante aparece lo que se llamó
crisis de nuevo estilo (entre muchas otras clasificaciones existentes) incorporando a su
estudio un carácter dual, esto es, además de observar problemas en balanza de pagos
también aparecen como elementos fundamentales la existencia de aspectos relacionados
con pánicos financieros, efectos de contagio y crisis de balance en las economías abiertas.
El estudio de las diferentes interpretaciones teóricas de las crisis financieras es y debe ser el
punto de partida para la construcción de modelos que permitan identificar la probabilidad
de una crisis y ser el punto de partida para la definición de acciones de política económica
que permitan paliar sus efectos y evitar su recurrencia. En la siguiente sección se realiza un
recuento de los principales modelos propuestos para explicar las crisis financieras
modernas, culminando con la preponderancia de modelos matemáticamente y
computacionalmente más sofisticados basados en la evidencia empírica más que en
propuestas teóricas.
50
2.2 Modelos de Primera Generación
Los modelos de primera generación que se pueden definir a partir de su objetivo de explicar
crisis de balanza de pagos derivada de una inconsistencia entre la política cambiaria, fiscal
y monetaria de un país. Los primeros modelos construidos generación parten de la idea de
que el tipo de cambio es inconsistente con la expansión del crédito interno, efecto que
genera una disminución de las reservas de divisas. Como un paso previo al agotamiento de
las reservas se producen ataques especulativos contra la moneda local generando
finalmente el abandono del tipo de cambio fijo. Generalmente, se observan problemas en
cuenta corriente y déficit fiscal, debido a los problemas de la balanza de pagos. Krugman
(1979) y por Flood y Garber (1984) fueron los autores que realizaron las primeras
aportaciones para desarrollar estas ideas.
Los modelos de primera generación concluyen que los ataques especulativos sobre los
sistemas de tipo de cambio fijo son una respuesta racional de los mercados ante la
evidencia de una política insostenible de tipo de cambio fijo. La mayoría de los modelos de
primera generación toma en cuenta el aprovechamiento de las oportunidades de arbitraje
que se dan cuando la política de tipo de cambio fijo que persigue un país entra en conflicto
con otras políticas económicas, por ello los agentes pueden anticipar la forma en que el tipo
de cambio será modificado. Por lo tanto los agentes económicos vislumbran que existe un
beneficio potencial en el mercado cambiario que pueden aprovechar, lo que desemboca en
un ataque especulativo que pone a prueba la capacidad de las autoridades monetarias para
mantener un tipo de cambio fijo.
En los modelos de primera generación el problema surge del hecho de que al adoptar un
tipo de cambio fijo, también se aplica una política monetaria expansiva a través de la cual
se financia el déficit fiscal buscando el equilibrio interno. Dicha política monetaria
expansiva genera en estos modelos con demanda monetaria fija, una reducción de las
reservas.
51
Por lo tanto, el déficit fiscal se monetiza necesariamente, para financiar el mantenimiento
del tipo de cambio. Sin embargo, esto es inconsistente debido al inevitable agotamiento de
las reservas de divisas se agotarán y por lo tanto el banco central deberá abandonar la
política de tipo de cambio fijo.
2.2.1 Modelo de Krugman (1979)
Una de las primeras aproximaciones teóricas fue desarrollada por Paul Krugman, donde
analiza la crisis de balanza de pagos como el elemento que evidencia problemas
estructurales. Esta crisis de balanza de pagos se genera por una precipitada pérdida de
reservas internacionales. Lo que genera a su vez un ataque especulativo en contra de la
moneda local y deviene en la insostenibilidad del tipo de cambio fijo, culminando con la
devaluación de la moneda. En esta sección se presenta una versión simplificada del modelo
de Krugman, el cual parte una economía donde el tipo de cambio determina la demanda de
moneda local y el tipo de cambio que equilibra el mercado de dinero varia en el horizonte
de tiempo considerado.
El modelo considera una economía que produce un bien transable internacionalmente, el
precio del bien en el mercado local (��) se define por el tipo de cambio de la moneda local
en términos de una moneda extranjera (�), ajustado por (�∗), el precio del producto en los
mercados internacionales. Por lo que (�� = ��∗). El precio del bien en el mercado externo
(�∗) es constante e igual a 1, y por lo tanto el precio interno es equivalente el tipo de
cambio (�� = �). Se asume un estado de pleno empleo y flexibilidad en precios y salarios.
La Balanza Comercial (�), es equivalente a la Balanza de Cuenta Corriente, y se
determina como la diferencia entre producción y gasto:
� = − � − ( − ,�) > 0, (1)
donde (�) es la balanza de cuenta corriente, () es el nivel de producción, (�) es el gasto
público, () es el consumo privado, ( )son los impuestos, y (�) es la riqueza.
52
En el modelo se define para el mercado de activos, que los inversionistas tiene dos opciones
a elegir: activos en moneda nacional (�), y activos en moneda extranjera (�), donde la tasa
de interés nominal es igual a cero para ambos activos. Por lo que la riqueza real de los
residentes (W) es igual a la suma de los saldos reales en moneda nacional (�) más lo
saldos en moneda extranjera (�):
� = �� + �, (2)
(�) representa el stock de moneda nacional, en equilibrio los residentes están dispuestos a
mantener sus saldos en moneda local. Para obtener un equilibrio las tenencias de activos en
moneda local deben ser equivalentes a una porción de la riqueza real de los residentes,
dicha proporción dependerá a su vez de la inflación esperada (�). Dado que los precios
locales corresponden con el tipo de cambio, los saldos reales en moneda nacional serán una
función de la depreciación esperada de la moneda local.
�� = �(�) ∗ �,� < 0, (3)
donde (�), es la inflación esperada, y como se mencionó previamente la tasa de
depreciación esperada de la moneda local. El análisis considera un sistema con tipo de
cambio flexible y un sistema con tipo de cambio fijo; el comportamiento de la economía en
el corto plazo dependerá de cuál sea el esquema de tipo de cambio.
En un régimen de tipo de cambio flexible implica que un incremento de la inflación
producirá un aumento del nivel de precios locales. En un régimen de tipo de cambio fijo un
aumento de la inflación esperada aumentará la posesión de activos en moneda extranjera
(��), y disminuirá la posesión de activos en moneda nacional (� ��). El impacto
consecuente en las reservas implica una disminución en la misma proporción que la
tenencia de moneda extranjera.
∆� = −∆� = ∇ �� . (4)
53
En un régimen de tipo de cambio flexible, las necesidades de financiamiento del gobierno
se verán solventadas mediante la creación de masa monetaria. Esto a su vez, generará que
el crecimiento de los saldos reales esté determinado por saldo neto gubernamental (ingresos
menos egresos):
� � = � − , (5)
�: Gasto público
: Impuestos
Mediante la relación determinada entre gasto público y saldos reales, y considerando el
conocimiento con antelación de la inflación, se infiere que la demanda de activos en
moneda local dependerá del aumento en los precios y del incentivo de la población local de
aumentar su preferencia por mantener moneda local sobre la externa, si y solo si, se
produce una disminución de la inflación.
En un régimen de tipo de cambio fijo, donde el nivel de precios es constante (�!) ya que
�� = ��∗ y �∗ = 1, lo que implica que �� = � = 1, con base en el supuesto de que el
gobierno posee reservas en moneda extranjera suficientes para estabilizar el tipo de cambio.
Por su parte el sector privado adquiere activos en función de su restricción presupuestaria,
por lo que adquirirá activos en la medida en que tenga un remanente sobre sus ingresos, por
lo que el ahorro del sector privado será:
#$ = $ − $ − $%$ − $,�$&. (6)
Donde el ahorro es una función que depende del ingreso menos lo que los particulares
destinan al pago de impuestos y al consumo, y el consumo dependerá del ingreso neto y la
riqueza. En el escenario de tipo de cambio fijo, el crecimiento de la riqueza de los
residentes será equivalente al ahorro del sector privado:
54
� = �� + � = #$. (7)
Por lo que la distribución del ahorro en moneda nacional y activos en moneda extranjera
estará determinada por la condición de equilibrio de la balanza comercial. Existirá
estabilidad en el sistema mientras exista confianza por parte de los inversionistas sobre el
mantenimiento de la inflación. Un aumento de la riqueza de los residentes se distribuye en
dos proporciones, una proporción (K) estará destinada a moneda nacional (dado �� =
'(�) ∗ �) y una proporción (1 − ') estará destinada a activos en moneda foránea.
La emisión de moneda local es un mecanismo que puede utilizar el gobierno para financiar
el déficit, otro mecanismo es la disposición de reservas ((). Por lo que el presupuesto
gubernamental se puede expresar de la siguiente forma:
� � + ( = � − = ) ∗ *��+. (8)
Esto implica que si el gobierno está dispuesto a mantener un tipo de cambio fijo
difícilmente tendrá control sobre el financiamiento de su déficit. Ante un déficit, las
reservas disminuirán, aún cuando el ahorro del sector privado sea nulo. Por lo tanto, bajo un
escenario deficitario mantener un tipo de cambio fijo es imposible, no importa la cantidad
de reservas con que cuente el gobierno eventualmente la decisión de mantener el tipo de
cambio generará una crisis de balanza de pagos.
2.2.2 Modelo de Robert P. Flood y Peter M. Garber (1984)
Los modelos desarrollados por Flood y Garber buscan analizar el momento en que se
colapsa un régimen cambiario fijo. Una primera aproximación parte del supuesto de
pronóstico perfecto del momento de la caída del régimen de tipo de cambio fijo con base en
el seguimiento de los movimientos de las reservas en moneda externa del banco central.
55
Posteriormente se realizó otro planteamiento considerando un componente estocástico con
el objetivo de estimar la probabilidad de ocurrencia del colapso del régimen cambiario fijo
y la magnitud de la devaluación en la moneda.
A continuación se desarrolla el modelo estándar de Flood y Garber (1984), se parte de una
economía domestica, pequeña y abierta. En un horizonte de tiempo continuo donde los
agentes tienen la capacidad de prever el futuro, no hay fallas en la economía, la movilidad
de capital es perfecta y los agentes poseen tres activos financieros básicos: dinero local,
bonos locales y bonos externos que son sustitutos perfectos. Además, el gobierno local
posee reservas en moneda extranjera para poder intervenir en defensa del tipo de cambio
(Guimaraes, 2007).
El modelo queda definido por las siguientes ecuaciones, la primera representa el equilibro
del mercado de dinero entre la demanda y oferta de saldos reales en cada periodo (,):
-.�.= /0 − /123/0 > 0, (9)
/0 = 1�∗4567∗
. (10)
Donde (83) es la masa monetaria en el periodo (,), (�3) nivel de precios, (23) tasa de
interés doméstica, (�∗) e (2∗) representan el nivel de precios y tasa de interés externos que
se suponen constantes y (/09/1)son parámetros constantes.
83 = (3 + �3 . (11)
En esta ecuación se establece que en cada periodo (,) la oferta monetaria está constituida
por el valor en moneda local de las reservas las reservas internacionales ((3) más el crédito
doméstico (�3).
�3 = :. (12)
56
Esta ecuación refleja el supuesto fundamental de los modelos de primera generación sobre
el papel de la policía fiscal expansiva que lleva a cabo el gobierno, frente a la política de
tipo de cambio fijo. El crédito doméstico crece a una tasa exógena y constante, (: > 0), que produce una monetización del déficit generando presiones sobre la oferta monetaria,
donde �3 es una tasa de crecimiento.
�3 = �∗�3. (13)
23 = 2∗ + ∆;.;.. (14)
Las ecuaciones (13) y (14) representan el cumplimiento del supuesto de paridad del poder
adquisitivo y paridad de las tasas de interés. Una de las principales contribuciones de este
modelo es la identificación de la relación entre el tipo de cambio y la tasa de variación de
las reservas internacionales, la cual es compatible con el equilibrio en el mercado
monetario, es negativa e igual a (−:). Lo anterior, garantiza que los agentes eventualmente
realizarán un ataque especulativo hacia la moneda local. Sustituyendo las ecuaciones (13) y
(14) en la ecuación (9) podemos ver que la oferta monetaria se determina de la siguiente
manera:
83 = �3−∝ ∆�3, (15)
donde ∝= /1�∗, y se puede observar que si el tipo de cambio es fijo �3 = �, la demanda de
saldos reales es constante e igual a � y en consecuencia la cantidad de reservas en cada
periodo sería:
(3 = � − �3 , (16)
donde la tasa de variación de las reservas con tipo de cambio fijo es:
∆(3 = −∆�3 = −:. (17)
57
Por lo anterior, en este modelo, no se acepta un aumento de la oferta monetaria nacional
(dado el tipo de cambio fijo), la cual se realiza para financiar el incremento del crédito
doméstico, en este caso los agentes acudirán inmediatamente al banco central para cambiar
moneda nacional en moneda extranjera al tipo de cambio fijado. Este proceso, en el
mediano plazo provoca el agotamiento de las reservas internacionales y el inevitable
abandono del régimen de tipo de cambio fijo. Una segunda implicación de gran importancia
es que los agentes de manera racional determinarán el instante en que se producirá el ataque
especulativo contra la moneda local, es decir, el momento en que se realizará una compra
masiva de las reservas internacionales.
La oportunidad de arbitraje es evidente, los agentes privados pueden atacar el peso en la
medida en que exista un diferencial entre tipo de cambio fijo y flotante, así compran al
Banco Central reservas baratas y las venden al tipo de cambio del mercado. Esta espiral por
obtener esos rendimientos, genera un ataque masivo a la moneda local. El ataque
especulativo se genera en el punto donde no hay pérdidas ni ganancias, en un escenario con
tipo de cambio fijo igual al tipo de cambio de mercado, la competencia entre agentes
privados genera la espiral especulativa y el ataque especulativo subsecuente.
A medida que aumenta la tasa de crecimiento del crédito interno se anticipa el colapso,
cuando dicha tasa tiende a cero el colapso se retrasa indefinidamente. En segundo término
cuando más devaluada este la paridad de la moneda nacional que se quiere mantener o
cuanto mayor sea el nivel de reservas iniciales, y todo lo demás sea constante, mayor será la
duración del sistema de tipo de cambio fijo. Por último el ataque especulativo se lleva a
cabo antes del momento en que se agotarían las reservas internacionales si no se produjera
el ataque.
58
2.2.3 Principales críticas a los modelos de Primera Generación
Existen numerosas modificaciones a los modelos de primera generación planteados por
Krugman, Flood y Garber. En cuanto a la validación empírica de estos modelos contrasta el
planteamiento teórico, sobre todo en el de Flood y Garber donde se supone que los agentes
tienen la capacidad de predecir el momento de la crisis a través del seguimiento del crédito
interno y la variación de las reservas internacionales. Se han generado diversas críticas a los
modelos de primera generación, en general se centran en los supuestos de los modelos así
como en su validez externa al contrastarlos con evidencia empírica, entre las principales
críticas se puede mencionar:
a) Existencia de asimetría en el comportamiento de los agentes, los privados actúan
bien informados y buscando ganancias del mercado cambiario mientras que el
gobierno no presenta capacidad de reacción
b) Inconsistencia en las preferencias del gobierno ya que presenta rigidez al mantener
hasta el colapso la política de cambio fijo
c) Se soslaya la capacidad de endeudamiento externo y la reducción del crédito local
para mantener la estabilidad del tipo de cambio
d) Se asumen tendencias en las variables macroeconómicas fundamentales que dan
indicios de los eventos futuros, sin embargo en episodios de crisis dichas tendencias
no son claras ni homogéneas en los diferentes países
Estas debilidades en los modelos de primera generación dan origen a nuevas líneas de
investigación, donde no necesariamente la situación de las variables fundamentales permite
explicar el ataque especulativo si no que son los propios agentes que a través de sus
expectativas pueden inducir al colapso independientemente de la situación de los
fundamentos macroeconómicos.
59
2.3 Modelos de Segunda Generación
Los modelos de segunda generación se fundamentan en la interrelación entre el
comportamiento de los agentes, públicos y privados. Por lo que puede materializarse una
crisis cuando agentes privados tienen expectativas sobre una posible devaluación,
impactando esta expectativa en un aumento en la tasa de interés para mantener la
preferencia por moneda nacional, lo que consecuentemente puede derivar en una
devaluación. En el caso contrario, una baja o nula expectativa de los agentes privados sobre
el movimiento del tipo de cambio, generará estabilidad en la tasa de interés y por lo tanto la
devaluación es poco probable.
Uno de los primeros planteamientos bajo esta perspectiva fue desarrollado por Obstfeld
(1994), se analiza la definición del salario por los empresarios en un momento inicial donde
se desconoce la política económica que seguirá el gobierno, por lo que el salario se define
con base en las expectativas y la información disponible. En un segundo momento las
expectativas generadas por los empresarios definen en algún grado las acciones de política
económica que toma el gobierno, la variable que permite identificar esta relación de
causalidad o autorrealización de expectativas es el tipo de cambio a través de los salarios.
La modelación a través de expectativas autogeneradas de manera concatenada, genera
equilibrios múltiples, según se reflejen o no las expectativas de los agentes privados en las
acciones del gobierno, así se puede mantener el tipo de cambio fijo o devaluar el tipo de
cambio, además de los equilibrios intermedios entre los dos estados extremos. En el
momento en que existe inconsistencia en el comportamiento de las variables
macroeconómicas y la política de tipo de cambio fijo, no hay duda en la ocurrencia de la
crisis, y el modelo converge hacia una devaluación a través de ataques especulativos. En un
escenario con estabilidad de las variables macroeconómicas, no hay certidumbre por parte
de los agentes, existe una probabilidad de ocurrencia o de no ocurrencia, esto genera
equilibrios múltiples a través del tiempo.
60
La decisión de abandonar o mantener la política de tipo de cambio fijo es endógena al
modelo, depende del compromiso gubernamental y de la situación económica del país. La
principal aportación de esta línea de investigación sobre crisis, es que se identifica que la
causalidad de las crisis no es unidireccional, se trata de un proceso de interacción entre el
comportamiento de la economía y las expectativas de los agentes, lo que genera la
posibilidad de alcanzar equilibrios múltiples. La devaluación ya no es solo la consecuencia
del agotamiento de las reservas, se supone un balance entre los costos y beneficios de una
devaluación o de mantener el tipo de cambio, se analizan los incentivos que tiene el
gobierno para decidir o no devaluar.
2.3.1 Un modelo de Segunda Generación
Se analiza una versión sintética y representativa del sentido teórico de los modelos de
segunda generación. Para ello se consideran dos periodos, donde se parte del cumplimiento
de la paridad del poder de compra, la paridad de las tasas de interés y donde la variable que
conduce a la crisis monetaria es la tasa de desempleo. Las autoridades monetarias pueden
esterilizar reservas instantáneamente y fijar la oferta monetaria de los dos periodos de
manera irrestricta.
No se distingue entre crédito local y reservas internacionales en el activo del banco central
y la política monetaria consiste en la fijación de la oferta monetaria en cada periodo, 81 y
8=. Se supone que el gobierno siempre mantiene fijo el tipo de cambio en el primer periodo
�1 = �, pero tiene la opción de devaluar en el segundo periodo, lo cual depende de los
efectos de la devaluación sobre el empleo.
En este caso, se supone que la tasa de devaluación, (>), será igual a la tasa de inflación
entre ambos periodos. � = *�?�6+ − 1 si el gobierno devalúa en el segundo periodo o cero si
el gobierno mantiene el tipo de cambio en dicho periodo, �= = �. El gobierno decide
devaluar o no con base en la implicación de esta decisión sobre el empleo del segundo
periodo. El nivel de la tasa de desempleo se determina vía una Curva de Philips con
expectativas:
61
@= = A ∗ @1 − B(� − �;), (18)
donde @1 y @= reflejan las desviaciones de la tasa de desempleo respecto a la tasa natural en
los periodos uno y dos y (�;) es la inflación esperada. Esto se justifica dado que el salario
nominal del segundo periodo se determina en el primero, mientras que la inflación esperada
aumenta el empleo al reducir el salario real. El gobierno toma la decisión sobre devaluar en
el segundo periodo a través de la minimización de la siguiente función de pérdidas:
C = @==4DE, (19)
donde (F) es una variable binaria que refleja la decisión gubernamental, es uno si el
gobierno devalúa y cero en el caso contrario, () es el costo que sufre el gobierno por
abandonar la política de tipo de cambio fijo.
El equilibrio del modelo se obtiene de manera recursiva, primero se caracteriza la decisión
óptima del gobierno en el segundo período, dadas las expectativas de los participantes en el
mercado, posteriormente se determinar en qué condiciones dichas expectativas son
racionales. Sí los agentes privados esperan que no haya devaluación (�; = 0). La función
de pérdidas del gobierno será C� = (A@1 − B>)=4E, si devalúa, o C�� = (A@1)= si no
devalúa. Por lo tanto, el gobierno no devaluará cuando (C� > C��).
Si los agentes privados tienen la expectativa de que el gobierno devaluará (�; = >), entonces compararán su función de perdidas si no devalúa C�� = (A@1 + B>)=, con su
función de pérdidas si devalúa C� = (A@1)=4E. Por lo tanto, la devaluación será la política
correcta si y solo si (C�� > C�) (Jeanne, 2000).
Si se define (G)como variable indicadora para la toma de decisiones en el modelo:
H = EI=JK6LM . (20)
62
Dónde existen tres posibles estados para la variable, a saber:
a) Estable: Si H > B>, el equilibro es único e implica la estabilidad del tipo de cambio
en el periodo dos.
b) Ataque especulativo: Si H < B>, el equilibrio es único pero es la devaluación de la
moneda en el segundo periodo, previsión perfecta de los agentes.
c) Inestable: Si – B> < H < B>, existen dos equilibrios, el primero con una
devaluación en el segundo periodo, y el segundo donde sin devaluación.
Las contribuciones de este enfoque son relevantes, en primer lugar se observa que las
variables macroeconómicas fundamentales de la economía son capaces de desestabilizar el
de tipo de cambio, como lo es el desempleo. Así cuando la tasa de desempleo aumenta en el
primer periodo, el sistema de tipo de cambio puede pasar de una región estable a otra
inestable en la que la crisis puede ocurrir o puede ser el único equilibrio. En segundo lugar,
las expectativas de devaluación no son únicamente determinadas por las variables
macroeconómicas fundamentales. En algunos casos los fundamentos determinan las
expectativas, el caso donde el desempeño macroeconómico es excepcional o pésimo. Por
ende, las crisis monetarias se pueden deber a un cambio repentino en las expectativas de
devaluación que se auto-realizan, el cambio en las expectativas disminuye el beneficio neto
gubernamental de mantener la política de tipo de cambio fijo.
Se han creado modificaciones y diferentes vertientes de los modelos de segunda
generación, como es el caso de los modelos de Bernard Bensaid y Oliver Jeanne (1996)
donde se fija la moneda respecto una moneda externa, así el país determina la tasa de
interés que le permitirá mantener la paridad. El modelo de Maurice Obssfeld (1996) que se
basa en que bajo un escenario de escepticismo en el mercado cambiario, el gobierno decide
defender el tipo de cambio a costa de desempleo, la decisión del gobierno se basa en la
minimización de un función de pérdidas que se asocia a mantener fijo el tipo de cambio y el
costo de devaluar la moneda.
63
El modelo de Robert P. Flood y Nancy P. Marion (1997), que parte del supuesto de que los
salarios se fijan en un periodo previo con base en las expectativas del mercado laboral
sobre la política económica que ejercerá el gobierno, se tiene que si los agentes prevén una
devaluación esto se reflejará en las negociaciones salariales, el gobierno puede actuar
mediante el control de tipo de cambio ya que este se fija después de las negociaciones
salariales así si el gobierno ante expectativas de devaluación decide devaluar alineará los
desequilibrios a costo del nivel de producción pero manteniendo la inflación, y si decide
mantener el tipo de cambio, fomentará una espiral inflacionaria. En los modelos descritos
es posible la existencia de distintos equilibrios, cada uno de los cuáles recoge las
expectativas de los agentes, sobre la política económica que implementará el gobierno en el
periodo (,41) basando sus decisiones en la minimización de pérdidas o maximización de
beneficios, ya sea medidos en términos de producción, empleo e inflación.
En la línea de investigación de los modelos de segunda generación, algunas investigaciones
se centraron en el efecto contagio de las crisis, como el elemento catalizador. Uno de los
primeros desarrollos fue realizado por Gerlach y Smets (1995), el modelo desarrollado
considera dos países que interactúan vía el comercio de mercancías, donde la depreciación
de una moneda contagia a la moneda del país vecino mediante un incremento de las
exportaciones debido a su precio relativo inferior lo que genera un déficit en balanza
comercial del país comprador y un consecuente decremento de sus reservas internacionales.
De igual forma una disminución del precio de las importaciones del país comprador genera
un decremento en sus precios al consumo y de la demanda de dinero local y un aumento de
la demanda de moneda externa.
Goldfajn y Valdés (1995) analizan el flujo de liquidez en los mercados financieros, a través
de los intermediarios financieros que son el mecanismo de propagación de incertidumbre
ya que los intermediarios abastecen de activos líquidos a los inversionistas extranjeros que
no están dispuestos a comprometerse en inversiones de largo plazo. En el momento en que
por razones exógenas (contagio del pánico financiero), los inversionistas foráneos retiran
sus depósitos de manera masiva y los intermediarios no soportan la demanda de liquidez
del mercado, se genera un colapso del sistema bancario.
64
Esta es la aportación adicional de los modelos de contagio, ya que permiten analizar como
quiebra de un banco puede producir una crisis bancaria y monetaria. Por primera vez se
analiza el efecto directo del colapso de los intermediarios sobre los mercados cambiarios,
mediante el flujo masivo de capitales. Estas crisis pueden rápidamente contagiarse a otros
países cuando los inversionistas internacionales encuentran dificultades para obtener
liquidez como resultado de la crisis bancaria en un país, optando por liquidar sus posiciones
en otros mercados.
2.4 Modelos de Tercera Generación
Después de las crisis de la segunda mitad de la década de los noventa, se gestó un nuevo
interés en el desarrollo de modelos que buscaban explicar las crisis económicas. Debido a
las características de estas crisis los modelos de primera y segunda generación eran
incapaces de explicar el surgimiento y evolución de estas crisis. Así surge una nueva
clasificación de modelos de crisis económicas, que incorporan la interacción entre la crisis
monetaria y bancaria.
A través de la evolución teórica-empírica realizada en los modelos de tercera generación se
transita del análisis meramente monetario hacia el análisis de la interacción entre las crisis
monetarias y las crisis bancarias. Cobra relevancia el análisis del sector financiero más allá
de los modelos de ataques especulativos o de crisis monetarias. Los trabajos que se
clasifican en este rubro ponen énfasis en aspectos como las distorsiones microeconómicas o
de riesgo moral, ajustes monetarios y el efecto de balance.
Los modelos de efecto de balance tienen su origen en el modelo de Krugman (1999), donde
se analiza la relación entre los problemas de balance y de salida masiva de capitales para
explicar la crisis sufrida en algunos países asiáticos en los noventas. Los problemas de
balance como se le denomina, se refieren a la situación que presentaban la mayoría de las
empresas de la zona, niveles de apalancamiento muy elevados derivados de la gran cantidad
de deuda emitida, principalmente en divisas, que fueron necesarias para financiarse.
65
En esta sección se presentará una versión sintética de un modelo de tercera generación. El
modelo supone una economía con un solo sector productivo, considera dos agentes
residentes los trabajadores que no invierten y los empresarios que son los que generan y
manejan el capital. Los empresarios financian inversiones mediante endeudamiento, los
empresarios solo pueden endeudarse por una cantidad máxima que depende de su riqueza
inicial, así el nivel máximo de endeudamiento queda definido por la siguiente ecuación:
O$ < (1 + G)�, (21)
donde I$ es la inversión financiada vía préstamos y (W) es la riqueza inicial de los
empresarios. La cantidad total ofertada de préstamos alcanzará un nivel máximo de (θ)
veces la riqueza inicial. La riqueza real se expresa como la diferencia entre el capital
disponible en la economía y las deudas con acreedores nacionales y extranjeros, de acuerdo
con la siguiente ecuación:
� = ST − � − �U, (22)
donde (�) es el tipo de cambio real y (T) es la participación del capital en la producción,
(�) la deuda con acreedores nacionales y (U) la deuda foránea. Si el tipo de cambio real
depende de la inversión, existe una relación entre la inversión y la riqueza, de modo que la
inversión financiada con préstamos varía cuando varia la inversión:
MVWMV =
(14X)(1IY)Z[ , (23)
donde (\) es la parte del consumo y de la inversión gastada en importaciones y (]) es el
valor de las exportaciones. Según Krugman la única solución de interés es cuando esta
derivada es mayor que la unidad. En dicha situación se generan múltiples equilibrios,
generando pérdida de confianza por parte de los acreedores, lo cual disminuye el flujo de
fondos hacia los empresarios, generando una disminución del tipo de cambio real y el
colapso para los empresarios endeudados.
66
Por lo tanto las variables que pueden generar un colapso son la baja propensión marginal a
importar, importantes montos de deuda en moneda extranjera y un elevado nivel de
apalancamiento. Estas variables son el vehículo de transmisión de problemas en la
inversión hacia el tipo de cambio, efecto que genera problemas en los balances de las
empresas y el flujo del crédito; así se construye una espiral a nivel empresa que alcanza
niveles macro y culmina con una recesión.
2.5 Modelos Empíricos
A raíz de que no se ha identificado una base fundamental para justificar los modelos
teóricos hasta ahora desarrollados, una corriente de pensamiento ha optado por analizar la
evidencia empírica con que se cuenta, los que se centran en un país durante un periodo de
turbulencia económica y los que analizan múltiples países con datos de corte transversal o
de panel. El instrumental utilizado se basa en técnicas estadísticas y modelos econométricos
probit, logit, vectores autorregresivos.
Kaminsky, Lizondo y Reinhart (1998), realizaron un meta análisis donde recopilan
información acerca de un grupo de estudios empíricos enfocadas a la análisis de crisis
financieras en diferentes países. Los análisis tienen diferentes vertientes, aquellos que
elaboran un indicador de crisis mediante técnicas estadísticas, los que buscan identificar el
grupo de variables que permitan conocer la sintomatología específica que caracteriza un
periodo de crisis y otro grupo se aboca mediante modelos logit y probit buscan medir la
probabilidad de existencia de crisis en un periodo determinado con base en un conjunto de
variables e indicadores, un último grupo de investigaciones centran su atención mediante
métodos no paramétricos para identificar medidas de alerta temprana generadas por un
conjunto de variables en un periodo previo a una crisis.
Se identifican en el meta análisis realizado, un grupo de variables clave que son
significativas en varios estudios, no resulta de sorprender que variables como la balanza
comercial, las exportaciones, el crecimiento del dinero, las reservas internacionales, el
crecimiento del PIB y el déficit fiscal sean relevantes en todos los modelos. La literatura es
67
muy extensa en cuanto a modelos empíricos de crisis. Existe un perfil marcado de los
métodos utilizados en la mayoría de los trabajos empíricos, modelos econométricos de
probabilidad tipo logit o probit, modelos de clasificación, más recientemente se han
integrado técnicas estadísticas más sofisticadas como lo son la lógica difusa y el uso de
redes neuronales. A continuación se describen brevemente tres modelos empíricos que son
multicitados en la literatura.
a) Modelo Berkeley (1996)
Modelo desarrollado por Frankel y Rose (1996), donde se plantea un estudio de 100 países
y 22 años, para poder caracterizar una crisis. Un punto esencial en este tipo de modelos es
la definición de que es una crisis, a través de que variable o variables se identifica y cuáles
serán los elementos necesarios para poder definir un periodo como crisis. En este modelo
en específico se define una crisis como el momento en que existe una depreciación de 25%
o más del tipo de cambio respecto al dólar y que esta depreciación exceda al menos en un
10% a la de años previos. Se utiliza un grupo de variables explicativas como indicadores
macroeconómicos, variables externas, composición de la deuda y variables de otros países
como la tasa de interés de Estados Unidos y el crecimiento de los países de la OCDE.
Se estima un modelo probit que en la práctica pronostica correctamente los periodos de
ausencia de crisis, en el caso de los periodos de crisis la precisión del modelo es
cuestionable. Básicamente se destaca que una crisis se caracteriza por la disminución
significativa de la entrada de inversión extranjera directa, cuando las reservas se encuentran
en un nivel muy bajo, aumenta el crédito privado, las tasas de interés internacionales
aumenta y cuando el tipo de cambio está sobrevaluado. Se destaca que el déficit de cuenta
corriente y fiscal no presenta relevancia en el modelo (Kaminsky, Lizondo, y Reinhart,
1998).
68
b) Modelo J.P. Morgan (1998)
La estructura lógica de este modelo se fundamenta en la definición de las posibles causas
de una crisis, la política monetaria, las reservas internacionales y la competitividad. Pero se
circunscribe a un perfil de un modelo de segunda generación, tomando en cuenta el
contagio. El colapso de una moneda se produce posterior a una disminución de la
competitividad internacional, la crisis deviene como consecuencia de una pérdida de
credibilidad del gobierno para defender su moneda y el efecto de contagio que se genera a
nivel internacional. Las fuentes de contagio consideradas son la devaluación de la moneda
de un socio comercial y la pérdida de competitividad.
Se utilizan datos transversales seleccionando periodos de crisis de 25 países, se eliminan los
casos atípicos de estabilidad. Como en el caso anterior el elemento crucial de un modelo
empírico es definir en qué momento se define como crisis, en este modelo específico se
considera que existe una crisis ante una caída del tipo de cambio en un 10% en un mes.
Se considera como principales variables explicativas, la sobrevaluación de la moneda, las
expectativas de crecimiento del precio de las acciones, las reservas internacionales respecto
a la deuda externa que mide la presión sobre la moneda, el contagio que se mide a través de
la demanda de activos riesgosos o apetito de riesgo (variable creada por J.P Morgan) que
mide la relación entre los rendimientos y el riesgo de las inversiones financieras y la
variable de cluster que mide el contagio entre regiones. La variable dependiente es binaria
dado que se trata de un modelo logit, las variables seleccionadas son significativas y los
porcentajes de acierto de periodos de crisis son cercanos al 90% (Kaminsky, Lizondo, y
Reinhart, 1998).
69
c) Modelo GS-Watch (1999)
Goldman, Sachs & Co. desarrollaron este modelo con el objetivo de determinar la
probabilidad de que exista una crisis, la herramienta utilizada fue un modelo logit. La
especificación y objetivo del modelo fue para su uso en países en desarrollo. La definición
de un periodo de crisis se realizó mediante un indicador ponderado entre la variación del
tipo de cambio real y las reservas internacionales en una ventana de tiempo de tres meses,
donde 0 equivale a un periodo de estabilidad y 1 a una crisis, dicha variable de crisis se
construye con la técnica SETAR (Self Excitinf Threshold Autorregression).
El modelo estima variables que permitan identificar una crisis, por mencionar algunas se
considera la evolución del crédito, del mercado de valores, tipo de cambio, exportaciones,
dinero en circulación y depósitos bancarios, y deuda externa. Se integra un componente
subjetivo medido a través de una variable que contempla riesgos políticos y nivel de
contagio, además se contempla la liquidez internacional y las tasas de interés
internacionales se incluyen variables externas como la liquidez global y los niveles de tasa
de interés externos. Los resultados del modelo muestran un bajo nivel predictivo de crisis,
por lo que su uso ha sido limitado (Kaminsky, Lizondo, y Reinhart, 1998).
Como se ha observado los modelos empíricos más allá de establecer una argumentación
teórica que explique la gestación, evolución y cierre de una crisis se han enfocado en
descubrir relaciones causales y de correlación que permitan conocer con antelación indicios
de la gestación de una crisis. Muchos de los modelos presentados generan resultados
positivos para periodos de estabilidad, no siendo así en periodos de crisis, esto se debe en
general a la heterogeneidad de las crisis contemporáneas. Es necesario construir nuevos
modelos sobre la base del análisis teórico y la evidencia empírica, quizá sea imposible
diseñar un modelo canónico que permita conocer cuando, cómo y dónde existirá una crisis,
pero si es posible interpretar mejor la información disponible, extraer la información
subyacente de los mercados y con ello generar indicadores de alerta temprana de alta
frecuencia que permitan tomar decisiones y acciones de corrección ante indicios de un
episodio de crisis.
70
2.6 La teoría económica y las crisis: hacia la construcción de nuevos enfoques
Como consecuencia de las crisis recurrentes de las últimas décadas y sobre todo debido a la
crisis gestada en los países del primer mundo, la cual inició en Estados Unidos y se
extendió a la Unión Europea se ha cuestionado el avance y la pertinencia de la
investigación teórica de las crisis. El cuestionamiento recae sobre las líneas de
investigación de la macroeconomía sobre la definición de políticas económicas. Se
cuestiona la corriente teórica surgida a partir de la década de los 70’s tras la aceptación de
la teoría de las expectativas racionales, la incursión del monetarismo y la consolidación del
paradigma neoliberal.
El principal crítico es el premio nobel Paul Krugman, que manifiesta que los desarrollos
teóricos observados en los últimos 30 años han sido en el mejor de los casos inútiles, y en
el peor, perjudiciales. La mayoría de los cuestionamientos al estado teórico de la
macroeconomía surgen de la hipótesis de que se ignoraron los desequilibrios que se
incubaron desde el año 2000 en Estados Unidos y que culminaron con la recesión que
inició en 2007.
Partiendo de modelos que dejaban fuera las variables financieras asumiendo que este sector
estaba dominado por agentes racionales, ávidos de información y totalmente capaces de
procesarla eficazmente para la toma de decisiones óptimas. La mayor crítica es la agenda
de investigación de la macroeconomía y cierto desprecio en ella hacia el análisis de las
fluctuaciones económicas.
El dejar de lado el análisis de las fluctuaciones económicas se explica en parte debido al
triunfalismo prevaleciente, donde en especial la Reserva Federal de Estados Unidos se
congratulaba de la eficacia de sus políticas de estabilización, del diseño del marco analítico
que permitió lograr un periodo de estabilidad en crecimiento y baja inflación en la década
de los noventas. De igual forma el desempeño macroeconómico satisfactorio en las
economías industrializadas daba mayor validez de las teorías.
71
Es importante mencionar que la estructura de las economías se vio ampliamente
influenciada por el desarrollo de las Finanzas, a través de nuevos productos dirigidos a la
diversificación de riesgos, que rápidamente fueron adoptados por dinámicos mercados
financieros en todo el mundo.
La estabilidad que observaban las economías industrializadas sugería que la teoría
macroeconómica había asimilado las lecciones de la gran depresión de 1929 y así logrado
terminar con los ciclos económicos. Aún así, en su momento el propio presidente de la
Reserva Federal de Estados Unidos Alan Greenspan alertó sobre la exuberancia irracional
que manifestaban los mercados bursátil y financiero, muestra de ello fue la quiebra de Long
Term Capital Manegement, dirigida por los premios nobel Myron Scholes y Robert
Merton. De igual forma el economista en jefe del FMI, Raghuram Rajan, en 2005, advirtió
sobre los riesgos que se incubaban en un mercado financiero propenso a la adopción de
mayores riesgos e incentivado por una política monetaria expansiva (Rosende, 2009).
Las investigaciones en macroeconomía en los últimos años han versado en tres temas
fundamentales según Rosende (2009): a) el estudio de las causas del crecimiento
económico, b) mayor rigor en la formulación de las teorías disponibles y c) diseño de reglas
óptimas de política monetaria. Se optó por estudiar crecimiento y soslayar los ciclos
económicos, se integró un gran contenido matemático y computacional para fundamentar
las teorías existentes además de la profundización sobre las estrategias óptimas de política
monetaria básicamente fundamentadas en reglas de Taylor. Sin embargo, la crisis
observada en 2007 en la economía estadounidense confirmó la inestabilidad de las
economías que carecen de un fundamento regulatorio sólido.
Del mismo modo, se cuestiona la capacidad del paradigma económico imperante para
ofrecer explicaciones y soluciones a la crisis, tal es el caso que se recurre nuevamente a la
aplicación de políticas keynesianas, al aplicar política fiscal expansiva apoyada en política
monetaria de bajas tasas de interés.
72
Surge el debate sobre la importancia en la investigación macroeconómica de los ciclos
económicos y del diseño de mecanismos de ajuste eficaces para el sistema financiero. Es
necesario tener un mayor nivel de conocimiento de los reguladores sobre el desarrollo de
mercados de alto riesgo, así como actuar efectivamente mediante el establecimiento de un
proceso de supervisión del mercado fundamentado en la revelación oportuna y fidedigna de
información. Es la base para establecer un marco analítico para la definición de política
monetaria adecuada y congruente con los objetivos de crecimiento y desarrollo que hasta
ahora se han dejado de lado.
La actual crisis financiera que viven las economías industrializadas es un incentivo para el
desarrollo de líneas de investigación vinculadas al funcionamiento de los mercados
financiero y en particular a su relación con la economía real. Claramente representa un reto
para el desarrollo teórico de la economía y un viraje a la agenda de investigación hasta
ahora desarrollada. No es erróneo que los modelos económicos actuales contengan
sofisticaciones matemáticas y computacionales, al contrario debe darse el siguiente paso
que es partir de estos modelos para la definición de políticas económicas aplicables que
permitan anticipar y resolver situaciones de crisis como la que se vive actualmente. Es claro
que existen muchos retos para la Economía, sin embargo, aseverar que la profesión no
cuenta con los elementos para dar respuestas a la crisis económica actual sería demasiado
aventurado.
Hasta este momento se han analizado los antecedentes históricos de las crisis financieras,
tanto su recurrencia como la modificación de sus características esenciales. Posteriormente
se presentó en este capítulo la evidencia teórica que hasta ahora se ha utilizado para tratar
de explicar las crisis financieras, hasta llegar a los modelos empíricos. Se analizó la
modelación teórica desarrollada sobre el tema y sus principales limitantes, que en términos
prácticos al contrastar la realidad con la teoría, existe un bajo poder predictivo de los
esfuerzos teóricos realizados hasta ahora.
73
El siguiente capítulo abordará el fundamento teórico que permitirá definir un modelo de
alerta temprana a partir del análisis fractal y la identificación de colas pesadas en una serie
financiera. El contar con una medida de alerta temprana de corto plazo que permita tomar
decisiones de inversión o incluso medidas de política monetaria o de estabilización, es de
vital importancia para procurar el sano desempeño de los mercados y así evitar colapsos
financieros de mayor impacto, o al menos paliar sus efectos en el mediano y largo plazo al
poder contar con información eficiente y oportuna para la toma de decisiones.
74
CAPÍTULO III. LAS DISTRIBUCIONES α-ESTABLES, EL COEFICIENTE DE
HURST Y LA ESTADÍSTICA MULTIVARIADA
3.1 Las Distribuciones α-estables
En general muchos eventos de la naturaleza no pueden caracterizarse mediante la suposición
Normal, dado que presentan un grado de impulsividad mayor que el que la distribución
Normal es capaz de describir. Esto es que son probables eventos que, descritos mediante una
distribución Normal, serían considerados como inexistentes. La distribución α-estable ha
sido usada para describir este tipo de eventos. La teoría de las distribuciones estables fue
desarrollada en los años 20 por Lévy y posteriormente en los 30 por Khinchine
(Samorodnitsky y Taqqu, 1994). Desde entonces, esta distribución ha sido aplicada en
diferentes áreas de conocimiento, tales como Economía, Biología y Física.
Como un antecedente del uso de las distribuciones alpha estables, se puede citar la
distribución de Holtsmark (1919), quien comprobó que las fluctuaciones aleatorias del
campo gravitacional de las estrellas en el espacio tiene una distribución estable. Pero no fue
hasta los trabajos de Mandelbrot en los 60 que se dio a conocer en general en el ámbito
académico la distribución α-estable. Mandelbrot utilizó la dicha distribución alpha estable
para modelar la fluctuación de los precios, posteriormente mostro muchas otras variables en
economía siguen una distribución α-estable (Nolan, 2003).
En este apartado se presenta distribución α-estable y sus principales propiedades, haciendo
énfasis en la característica de que la distribución α-estable cumple con el Teorema Central
del Límite, la propiedad de estabilidad y que la distribución Normal es un caso particular de
la distribución alpha estable.
75
3.1.1 Definición
La distribución α-estable se puede caracterizar mediante cuatro definiciones equivalentes
que se presentan a continuación (Nolan, 2003).
Definición 1. Una variable aleatoria � sigue una distribución estable si, para cualquier
constate positiva ���, existe un número positivo � y un número real � tal que
��� + �� =� �� + �, (1)
donde, ���� son copias independientes de � y (=�) significa igualdad en distribución.
Por otro lado, una variable aleatoria sigue una distribución α-estable simétrica si
(�)�(– �) tienen la misma distribución.
Definición 2. Para cualquier variable aleatoria con distribución α-estable, hay un número
� ∈ (0,2]para el que la constante � en la ecuación (1) cumple
�� + �� + ��. (2)
El parámetro α se denomina exponente característico o parámetro de estabilidad.
Si � es una variable aleatoria Gaussiana con media μ y varianza �, (�~�(�, �)), entonces, � es �estable con parámetro de estabilidad � = 2, tal que
��1 + ��2~��(� + �)�, (� + �)��. (3)
La ecuación (1) se cumple para variables Gaussianas con � = (� + �)�/ y � = (� +� − �)�. Lo anterior muestra un resultado de gran interés, que la distribución Gaussiana es
una distribución α-estable con exponente característico � = 2.
76
Definición 3. Una variable aleatoria � tiene distribución estable si para cada " ≥ 2, existe
un número positivo �" y un número real �", tal que
�� + � +⋯+ �% =� �"� + �", (4)
donde, ��, �, … , �% representan copias independientes de �.
Una variable aleatoria � tiene una distribución estable si existe una secuencia de variables
aleatorias ('�, ', … . ) y una secuencia de números positivo ((") y números reales
()"), *)+,-.:
012032⋯204�% + )" →� �, (5)
donde, →�, representa convergencia en distribución.
Esta definición es otra forma de definir el Teorema Central del Límite Generalizado, donde
la distribución de la suma de variables aleatorias tiende a una distribución estable cuando la
cantidad de variables es muy grande. Para que se cumpla la definición anterior, es
condición necesaria que las variables que se suman sean independientes e idénticamente
distribuidas. Además, si estas variables tienen media y varianza constantes se obtiene el
Teorema Central del Límite y, por lo tanto, � es una variable que sigue una Distribución
Gaussiana. El Teorema Central del Límite se cumple en su versión generalizada, para
distribuciones α-estables.
Definición 4. Una variable aleatoria � tiene distribución α-estable si tiene la siguiente
función característica:
6(7) = { ,9:;<|>?|@�2ABAC%(?)D3E FGH(|?|)I2AJ?K,(�L�)
9:;<M|>?|N@�MABAC%(?)DOP%QEN3 RI2AJ?K,(�S�) (6)
77
donde, � ∈ (0,2] es el exponente característico que controla el grado de impulsividad de la
variable aleatoria �. T ∈ [−1,+1] es el parámetro que registra la simetría de la distribución
(β=0, para la distribución α-estable simétrica, β=1 y β=-1 para la familia de distribuciones
α-estable positiva y negativa, respectivamente), V > 0 es el parámetro de escala o
dispersión, y µ es el parámetro de posición.
Derivado de lo anterior y por convención en lo sucesivo, se denotará la distribución
α-estable como función de sus cuatro parámetros usando la siguiente notación.
X�,DY(. |V, �). (7)
Cabe destacar, que si en la expresión de la función característica en (6) el parámetro � = 2,
el parámetro T pierde significado, ya que T*)"Z = 0. En ese caso, la función característica
queda como:
6(7) = exp{−|V7| + ^�7_. (8)
La expresión anterior es la función característica de una variable aleatoria Gaussiana con
media μ y varianza � = 2�. Por lo que, se demuestra que la distribución Normal es un
caso particular de distribución α-estable (Samorodnitsky y Taqqu, 1994).
3.1.2 Función de Densidad de Probabilidad
Dadas las propiedades de la distribución α-estable anteriormente definidas se infiere que su
uso está justificado en la medida en la misma medida que el de las distribuciones
Gaussianas. La distribución Gaussiana es un caso particular de la distribución estable y por
lo tanto el rango de aplicación de las distribuciones α-estables es aún más amplio que el de
la distribución Normal.
78
El uso de la distribución estable no está tan extendido debido a que la función de densidad
de probabilidad α-estable existe y es continua, pero en la mayoría de los casos no puede
expresarse de manera compacta, esto es que, la integral respecto a w de la función
característica (6) sólo tiene solución analítica para los siguientes casos (Nolan, 2003):
• Una distribución α-estable con parámetros
X,`(. |V, �) = �(a, �2V) = �>√c exp <
(YMJ)3d>3 K, es una distribución Normal (9)
• X�,`(. |V, �), es una distribución de Cauchy con densidad
X�,`(. |V, �) = efPghij(a|�, V) = >c((YMJ)32>3). (10)
• X�/,�(. |V, �), es una distribución de Lévy con densidad
X�/,�(. |V, �) = ekémj(a|�, V) = ( >c)�/ �
(YMJ)n/3 exp{− >(YMJ)_. (11)
3.1.3 Propiedad del producto
El siguiente teorema se cumple para las distribuciones α-estables simétricas (β=0),
(Samorodnitsky y Taqqu, 1994):
Teorema: Sean �.' > 0 dos variables aleatorias independientes con
�~X�1,o(a|V, 0)�'~X∝3,�((qrs c�3 ) 1
∝3 , 0). Entonces t = � ∗ '�/�1 es α-estable con
parámetros t~X∝1∗∝3,`(V, 0).
Si, se considera el caso particular donde �� = 2 y � < 1, puede usarse la propiedad del
producto para escribir la expresión compacta para las distribuciones estables simétricas, de
79
modo que si (w^) es una muestra ^. ^. (. extraída de una distribución simétrica α-estable con
posición (μ = 0) y dispersión V:
mA> ~X�,`(1,0). (12)
Aplicando la propiedad del producto de muestras aleatorias α-estables expresada en el
anterior teorema, obtenemos que:
w^~�(0, x^V), (13)
x^~XN3 ,� Qxy2(qrs
c� ) 1
N3, 0R, (14)
donde, �(0, x^V) representa la distribución normal de media μ = 0 y varianza � = x^V.
La propiedad del producto para distribuciones α-estables es un caso particular de una
propiedad estadística más general que relaciona la distribución Normal con varias familias
de distribuciones más impulsivas que la Normal. Esta propiedad se conoce, en su caso más
general como mezcla escalada de Gaussiana (Samorodnitsky y Taqqu, 1994).
3.1.4 Variable aleatoria α-estable
Para obtener una muestra aleatorias con distribuciones α-estables se utiliza el método
Chambers-Mallows-Stuck (Chambers, 1976). Una variable aleatoria � con distribución
X�,D(�|1,0) puede generarse a partir de una transformación no lineal de dos variables
aleatorias independientes, una uniforme (z) y otra exponencial ({), usando el siguiente
teorema:
80
Teorema. Sea (z) una variable aleatoria uniforme en el intervalo (Mc , c) y ({) una
variable aleatoria exponencial con media 1. Si V y W son independientes, entonces
� = |�,D }~�Q∝��2�∝,��R(hoB�)1∝
(�G}Q(�M∝)�2�∝,��R� )(�M∝)/∝, (15)
� sigue una distribución α-estable con X∝,D(�|1,0) donde
��,D = ������QD ���QEN3 RR� , (16)
|�,D = (1 + T*)" c� )�/�. (17)
Una vez que se obtiene la variable (�), se genera una variable con distribución α-estable
para cualquier valor de los parámetros �, T, ��μ; ya que si �~X∝,D(�|1,0) entonces
X∝,D(V, �)~V� + �s^� ≠ 1, � (18)
X∝,D(V, �)~V� + c TV+"V + �s^� = 1. (19)
3.1.5 Propiedad Asintótica
Para un � < 2, las probabilidades en las colas de distribución {� < −�_�{� > �_ cuando
� → ^"X, presentan un comportamiento decreciente siguiendo �M�. Dicho comportamiento
se conoce como la Ley-Pareto. Esto es que, si (�) es una variable aleatoria que sigue una
distribución α-estable con exponente característico � < 2, por lo que (Samorodnitsky y
Taqqu, 1994):
+^��→M∞��{� < �_ = �� �2D V�, (20)
+^��→M∞��{� < �_ = �� �MD V�. (21)
81
Donde:
�� = �M�Γ(M�)�G}(EN3 ) s^� ≠ 1, (22)
�∝ = c s^� = 1. (23)
3.1.6 Representación Gráfica de las Distribuciones α-estables
En la figura 5 se presentan gráficamente algunas distribuciones α-estables para distintos
valores de sus parámetros. Para lo cual se tomó como la distribución de referencia aquella
con los parámetros � = 1.5, T = 0, V = 1�μ = 0. Para cuatro distintos escenarios donde,
ceteris paribus, presentamos la forma de la distribución conforme cambian sus parámetros.
Como se mencionó con anterioridad, el parámetro � regula el grado de impulsividad de la
distribución, T regula la asimetría y el signo de dicho parámetro, la orientación de la
asimetría, V es la dispersión y regula la concentración de la distribución alrededor de un
valor determinado. Valores de V más bajos corresponden a una mayor concentración de la
distribución estable. Por último, distintos valores de μ producen la misma función de
densidad de probabilidad con posición desplazada del eje a.
82
Figura 5. Densidad α-estable con parámetros de referencia � = 1.5, T = 0, V = 1�μ = 0.
(a) Exponente característico �. (b) Parámetro de asimetría T. (c) Dispersión V.
(d) Posiciónμ. Elaboración propia en el software Mathematica 8.
3.2 Valuación de Opciones en tiempo continuo con distribuciones α- estables
En esta sección se llegará a la definición del modelo de valuación de opciones en tiempo
continuo con distribuciones α- estables, se presentaran paso a paso los elementos necesarios
para la construcción del modelo de valuación. Se presentaran las herramientas necesarias
para entender la construcción del modelo de valuación α- estable.
3.2.1 Movimiento Browniano
L. Bachelier (1964) introdujo un modelo del movimiento Browniano, observado en la
naturaleza por Brown en 1826, como herramienta para modelar las fluctuaciones de la bolsa
parisina.
83
El movimiento Browniano o proceso de Wiener en (Ω, �, �) es un proceso estocástico,
{ = ({O){O�`_ con las siguientes propiedades (Venegas, 2008):
a) Trayectorias continuas
b) Incrementos independientes. Si 0 ≤ *� ≤ ⋯ ≤ *%, entonces
{O�,{O −{O�,… ,{O% −{O%M�, son variables aleatorias independientes
c) {` = 0,{O −{B.s-")w)�^)�+.�r��)+, qr"�.(^)q.�r�w)�^)"�)(* −s), .s(.q^�,
{O −{B~�(0, * − s). (24)
Una variable aleatoria � es Normal, �~�(�, �), cuando su distribución de probabilidad es
�(a) = � �√c� .M
(���)33�3 (-Y
M� . (25)
Con una función de densidad de la forma:
�(a) = �√c� .M
(���)33�3 . (26)
De lo anterior, se destacan los siguientes aspectos:
a) La variable {O es normal, centrada, y tiene varianza *.
{O~�(0, *). (27)
84
b) El incremento ∆{ del proceso, es �(0, ∆*). Para (∆{), se tiene que:
�((∆{)) = ∆*, z�(∆7)� = 2(∆*). (28)
Si, ∆* → 0, la varianza es menor que el valor esperado, por lo que la variable se
aproxima a su valor esperado.
(∆{)~∆*, r(({) = (*. (29)
c) Esta propiedad se puede analizar, demostrando que, si un intervalo [), �] se
parte en (") subintervalos ∆*A iguales, y se consideran los incrementos ∆{A en
cada subintervalo, se cumple
+^�%→2�∑(∆{A) = � − ), (30)
con el límite en términos de probabilidad.
3.2.2 El modelo Black-Scholes
El modelo plantea el siguiente escenario, un proceso continuo de períodos * ∈ [r, ¡] y
consta de dos activos:
a) Un bono, � = (�O)O∈[o,¢] que evoluciona en forma determinista según
��£�£ = �(*, �` = 1, (31)
donde, (�) es la tasa de interés por unidad de tiempo, (�) representa un bono.
85
b) Una acción | = (|O)O∈[`,¢] cuyo precio sigue un proceso estocástico dado de la
siguiente forma,
�¤£¤£ = �(* + �({, |r = a, (32)
donde, μ es el rendimiento medio, � la volatilidad, { es un movimiento Browniano.
Una forma de interpretar ({, es que se trata de un modelo binomial de (") pasos y en cada
paso la variación de | es infinitesimal. Los incrementos ∆| divididos por | son entonces
variables normales con media �∆* y varianza �∆*, es decir:
∆¤¤ ~�(�∆*, �∆*). (33)
Asimismo, se supone que en este mercado hipotético se pueden realizar transacciones en
cualquier momento y sin costo de transacción.
3.2.3 El Lema de Itô
El lema de Itô se pude interpretar como una generalización de la regla de la cadena del
cálculo diferencial clásico. El objetivo de la aplicación del Lema de Itô es dar sentido y
generalizar la igualdad:
(({) = (*. (34)
Sea X: ¥ → ¥ una función con derivadas continuas. El desarrollo de la serie de Taylor de X es:
X(a) − X(a`) = X¦(a`)∆a + �X¦¦(a`)(∆a) +⋯. (35)
86
Generalmente el segundo sumando se considera despreciable respecto al primero. Pero si
a = {O y a` = {O`, se tiene que:
(∆a) = (∆{)~∆*, (36)
donde, { es una variable aleatoria que sigue un movimiento browniano, y el término ∆* ya no es ínfimo o despreciable.
Sea ahora X = X(a, *) una función con derivadas continuas de dos variables. Con el mismo
razonamiento anterior, se presenta el Lema de Itô:
X({O, *) − X({`, 0) = � XY({O, *)({OO` + �
� XYY(O` {O, *)(* + � XO({O, *)(*O
` , (37)
donde, XY , XYY�XO son las derivadas parciales de X. De manera simplicada
(X({O, *) = XY({O, *)({O + �XYY({O, *)(* + XO({O, *)(*. (38)
La primera integral � XY({O, *)({OO` se trata de un límite en probabilidad de sumas de la
siguiente forma:
∑ XY({OA , *A)({OA2� −{OA).%M�AL` (39)
La segunda integral �� XYYO
` ({O, *)(* representa una de las aportaciones del cálculo
estocástico, y hace que las reglas de integración sean diferentes a las del cálculo diferencial
e integral clásico. Por ejemplo si X(a) = a, entonces
XO = 0, XY = X¦ = 2aXYY = X¦¦ = 2, (40)
de lo anterior, X({O) − X({`) = {O = � (2{OO` )({O + 2*.
87
Que es distinta de la fórmula:
� = 2� a(aj` . (41)
Cabe recordar, que para una función de dos variables, X(a, �)
(X = Xa(a + X�(�, (42)
por lo que, la utilización del lema de Itô permite extrapolar el cálculo clásico con las
propiedades estocásticas de funciones de variables aleatorias.
3.2.4 Aplicación del Movimiento Browniano en Economía
Bachelier (1964) propone una función que determina la evolución del precio de las
acciones de acuerdo a la siguiente expresión:
§O = §` + �{O + ¨*. (43)
Donde {O es un movimiento Browniano. Como {O es normal, §O puede tomar valores
negativos, el cual fue la única y mayor omisión en el modelo de Bachelier.
En 1965 Samuelson propone una modificación de la ecuación de Bachelier, para el precio
de las acciones.
�O = �` exp(�a + ¨*), (44)
donde, �O = X({, *).
Calculando sus derivadas parciales se tiene,
Xa(a, *) = �X(a, *),Xaa(a, *) = �X(a, *),X*(a, *) = ¨X(a, *). (45)
88
Apicando el lema de Itô, se tiene el siguiente resultado:
(�O = (X({O, *) = ��O({O + ���O(* + ¨�O(*. (46)
Dividendo por A
�C©£©£ = Q¨ + �
�R (* + �({O. (47)
Se puede observar que el movimiento browniano verifica la definición del activo con riesgo
del modelo de Black y Scholes. Como � = (w + ��)* la fórmula para modelar el precio
del activo con riesgo |, es:
|* = |` exp @�{O + Q� − ��R *I. (48)
Algunas conclusiones importantes a destacar son que el término �σt proviene de la
derivada f::, que es la contribución del Lema de Itô al análisis. Por lo tanto, el movimiento
Browniano es la generalización natural de agregar ruido a la evolución de un activo sin
riesgo (determinístico), por ello la utilización del movimiento Browniano en el ámbito
económico-financiero representa un mayor acercamiento a la realidad al considerar la
incertidumbre en la modelación.
3.2.5 Probabilidad libre de riesgo y el Teorema de Girsanov
Partiendo de un escenario libre de riesgo, es posible suponer que el precio de un activo
cualquiera puede subir o bajar con una probabilidad dada y fija para todos los tiempos del
proceso, lo cual es consistente con la distribución binomial.
89
En el modelo binomial, el hablar de una probabilidad libre de riesgo consiste en considerar
una probabilidad (�∗), tal que:
�∗ Q ¤1�2R = a. (49)
Es decir, �∗ iguala los rendimientos medios de los activos, con riesgo y sin riesgo. Se
puede plantear una �∗ tal que:
�∗ Q¤£�£R = ¤®�®. (50)
Según (�∗) y como {O es normal se tienen que:
� Q¤£�£R = |`�(exp Q�{O − Q�� + � − �R *R = |` exp�(� − �)*�. (51)
Luego, se define una probabilidad que cambie μ por �.
{O∗ = {O + ¯M� *. (52)
De donde resulta que:
�¤£¤£ = �(* + �({O = �(* + �( Q{O + JM
� *R = �(* + �({∗. (53)
Así el teorema de Girsanov afirma que existe una probabilidad �∗ tal que el proceso {∗ es
un movimiento Browniano en el espacio de probabilidad (Ω, �, �∗). En conclusión, de su
aplicación resulta que es posible:
a) Sustituir � por �∗ b) Sustituir μ por �
c) Sustituir W por {∗
90
Logrando que los activos ��| tengan igual rendimiento en el modelo P∗, teniendo en
cuenta que los cálculos a realizar darán el mismo resultado en ambos modelos. Derivado de
lo anterior, todos los cálculos se realizarán en el espacio (Ω, F, P∗), y (|) tendrá
rendimiento medio (�). Esto significa que, considerar un mundo neutral al riesgo, implica
que todos los activos crezcan a la tasa libre de riesgo, donde la varianza es la única medida
de riesgo.
Lo anterior, implica que se condiciona la modelación del activo al uso de la distribución
normal. Sin embargo, como se verá más adelante este supuesto genera imprecisiones en la
valuación propuesta por Black-Scholes, ante un escenario de alta volatilidad y ante la
presencia de colas pesadas en la distribución de los rendimientos del activo. Esta es
precisamente el área de oportunidad en el uso de las distribuciones alpha estables, que
permiten captar este comportamiento impulsivo en la serie y ajustar las valuaciones de
acuerdo a la información contenida en los datos.
3.2.6 Martingalas
Como herramienta fundamental para la valuación de opciones se recurre al concepto de
martingala. Una martingala es un proceso estocástico que evoluciona sin tendencia. Una
consecuencia de esta propiedad, es que su valor esperado es constante.
Si ² = (²O)O∈[`,¢] es una martingala, entonces:
�(²`) = �(²O), e)�)*r(r*. (54)
Además, si un proceso (�).s*)+,-.
(�O = )O(* + �O({*, (55)
91
entonces, (�).s�)�*^"³)+)s^�sr+rs^, )O = 0. El uso del concepto de martingala
permite la resolución de la ecuación que plantea Black-Scholes para la valuación de
opciones, misma que se describe en la siguiente sección.
3.2.7 Valuación de opciones en tiempo continuo
El cálculo del precio �(a, ¡) de una opción europea con rendimiento definido por X(|¢) parte de la construcción de un portafolio ()O,�O)O∈[`,¢] tal que:
a) Replique la opción
b) Sea autofinanciable
Si �O = )O�O+�O|O es el valor del portafolio en el instante *, que pueda replicar la opción
significa que en ¡:
�¢ = )¢�¢ + �¢|¢ = X(|¢). (56)
El precio de la opción será entonces el de comprar el portafolio autofinanciable1 en * = 0,
es decir:
�(a, ¡) = )`�` + �`|`. (57)
Construcción del portafolio
Black y Scholes (1973) propusieron buscar una función ´(a, *) tal que,
�O = ´(|O, *). (58)
1 Un portafolio es autofinanciable si las variaciones del capital son consecuencia de la variación de los
precios de los activos, (�* = )*(�* +�*(|*.
92
Para que se pueda replicar la opción se tiene la siguiente condición que �¢ = X(|¢), lo que
se logra si G(a, ¡) = X(a).
En ese caso el precio de la opción será �(a, ¡) = ´(|`, 0).
Es necesario determinar la función ´tal que:
�O = )O�O + �O|O = ´(|O, *). (59)
Se puede observar que, como | es función de {∗ dado que sigue un movimiento
browniano, y ´ es función de |, aplicando el lema de Itô, se tiene el siguiente resultado.
(´ = Q�|´µ + ��|´µµ + ´OR (* + ´µ|�({∗. (60)
Y dado que (�) es autofinanciable:
(� = )(� + �(| = �()� + �|)(* + �|�({∗ = �´(* + �|�({∗. (61)
La Ecuación Black-Scholes
El objetivo es encontrar � = ´, por lo que se igualan los coeficientes en (*.
��|O´YY(|O, *) + �|O´Y(|O, *) + ´O(|O, *) = �´(|O, *). (62)
Dado que el portafolio replica la opción, se tiene que G(|¢ , ¡) = X(|¢). Estas condiciones
se deben verificar para todos los valores posibles de (a) que tome el activo.
��a´YY(a, *) + �a´Y(a, *) + ´O(a, *) = �´(a, *), (63)
´(a, ¡) = X(a).
93
La ecuación (63) es la ecuación de Black-Scholes, una ecuación diferencial en derivadas
parciales. La condición de réplica es la condición inicial o de frontera, la cantidad de
acciones necesarias para replicar la opción se obtiene igualando el otro coeficiente.
�O = ´Y(|O, *), (64)
Solución de la Ecuación
Para calcular ´(a, 0), se considera el valor esperado del portafolio descontado es igual en
0�."¡ ya que es martingala.
�(a, ¡) = ´(a, 0) = �∗�.M¢X(|¢)� = .M¢�∗�X(|¢)�. (65)
Se tiene que X(a) = (a − ¶)2. Entonces, retomando que bajo �∗, con |` = a
|¢ = a exp Q�{¢∗ − ��¡ + �¡R. (66)
Ya que {¢∗~�(0, ¡), se tiene que:
�(a, ¡) = .M¢ � @a.�gM13�3¢ − ¶I �
√¢2�Y` ΦQ g
√¢R (-, (67)
donde, a` es el mínimo valor tal que .�Y`M13�3¢2¢ ≥ ¶. Transformando, se obtiene la
Fórmula para valuación de opciones Black-Scholes, para las opciones europeas de compra.
�(a, ¡) = aΦ(a�) − .M¢¶Φ(a0), (68)
Con a0 = ��√¢ +r³
Y¸¹�º» − �
�√¡y �1 = a0 + �√¡.
94
Recapitulando
a) El problema es encontrar una función ´(a, *) y un portafolio ()O,�O) tales que
- �O = )O�O + �O|O = ´(|O, *) - Es un portafolio que replica la opción
- Es autofinanciable
b) El precio de la opción es el costo de comprar el portafolio autofinanciable en * = 0.
�(a, ¡) = )`�` + �`|` = ´(|`, 0). (69)
El portafolio replica la opción si se cumple la condición G(a, ¡) = (a − ¶)2.
c) La ecuación a resolver obtenida por Black y Scholes es:
��a´YY(a, *) + �a´(a, *) + ´O(a, *) = �´(a, *) (70)
´(a, ¡) = (a − ¶)2.
Y la cantidad de acciones necesarias para replicar la opción se determina por la
siguiente ecuación.
�O = ´Y(|O, *), (71)
d) La solución de la ecuación es:
�(a, ¡) = ´(a, 0) = �¹º» �∗((|* − ¶)2). (72)
El resultado de los valores esperados permiten definir la Fórmula Black-Scholes.
�(a, ¡) = aΦ(ah) − ¸¹º» Φ(a¼), (73)
95
donde, ah = F�Q�½R2¾2�33 ¿¢
�√¢ , (74)
a¼ = F�Q�½R2¾M�33 ¿¢
�√¢ , (75)
y, Φ(a) = �√c� .M1
3O3(*YM� , (76)
es la distribución de probabilidad normal de la variable con media cero y varianza 1.
Los últimos desarrollos han demostrado que estas condiciones propuestas para la definición
de la ecuación Black-Scholes no se cumplen para todos los activos en general. Sobre todo
en que los rendimientos del activo subyacente siguen una distribución normal. Un ejemplo
de los nuevos avances en este sentido, es la utilización de las distribuciones alpha estables,
ya que capturan la masa de probabilidad acumulada en los extremos de la distribución que
la distribución normal es incapaz de captar.
En casos de alta volatilidad donde las series presentan impulsividad, esta información no
capturada por el modelo normal genera subvaluación o sobrevaluación del activo, en el
caso contrario la distribución alpha estable captura dicha información al considerar la masa
de probabilidad completa utilizando toda la información proporcionada por los datos
(Cartea y Howison, 2009).
96
3.2.8 Valuación de opciones por el método Black-Scholes con distribuciones
α-estables
Si se supone que todos los agentes son neutrales al riesgo, es decir, no requieren de un
premio para inducirlos a participar en el mercado, entonces el rendimiento promedio de
cualquier activo es la tasa libre de riesgo. En un universo neutral al riesgo, los rendimientos
logarítmicos son conducidos por la siguiente ecuación diferencial estocástica, asumiendo
una distribución α-estable.
(+"|O = (� − TVs.qx)À + ('ÁO. (77)
Tomando como base el modelo Black-Scholes para calcular el precio de una opción
europea de compra, se parte del supuesto que el subyacente es una acción que no paga
dividendos y que los rendimientos logarítmicos se conducen por la ecuación diferencial
estocástica usada en el modelo Black-Scholes, el precio de una opción europea en el tiempo
(*) con precio de ejercicio ¶ y vencimiento ¡, �(|*, *) es el valor esperado del valor
presente del valor intrínseco de la opción.
�(|O, *) = .MÂ�O[max(|¢ − ¶, 0)] (78)
Suponiendo una función de densidad estable neutral al riesgo y la ecuación estocástica que
conduce a los rendimientos logarítmicos en un escenario neutral al riesgo el precio de la
opción europea de compra está dado por la siguiente expresión (Contreras, 2010).
C(St,t)=e-rτEt @max QSte�r-βsecθ�τ+0Á£-K,0RI, (79)
C(St,t)=e-rτ¶ � max(�M�
¤£¸ .(MDB¹hÐ20£Ñ − 1,0)(�B% Q'ÁO; �, T, VÀ1
N, 0R, (80)
C(St,t)=e-rτ¶ � (�M�
¤£¸ .(MDB¹hÐ20£Ñ − 1)(�B% Q'ÁO; �, T, VÀ1
N, 0R, (81)
C(St,t)=|O � XB% Q−'ÁÂ; �, −T, VÀ1N, 0R ('ÁÂ�
M� − ¶.M � XB%('ÁÂ�M� ; �, T, VÀ�/�, 0)('ÁÂ. (82)
97
El límite inferior de las integrales esta dado por:
( = ln Q¤£¸R + (¥ − TV� sec x)À, (83)
y, x = �c .
De la expresión anterior el precio de la opción se puede expresar de la siguiente forma:
�(|O, *) = |OФB% Q(; �, −TVÀ1N, 0R − ¶.MÂФB% Q−(; �, T, VÀ1
N, 0R. (84)
Comparando esta fórmula con la Black-Scholes en la segunda parte de la ecuación la
distribución Ф}�� Q−d; α, β, γτ1Ù, 0R se puede interpretar como la probabilidad de ejercer la
opción, �(() para el caso normal.
Precio de una opción de venta con distribución α-estable
SeaP(S�, t) el precio de la opción europea de venta, utilizando la propiedad de paridad call-
put, es posible obtener el precio de la opción de venta al tener la fórmula de valuación de la
opción de compra a través de la siguiente expresión.
Paridad Call-Put
P(S�, t) + S� = C(S�, t) + KeM�Ú. (85)
Sustituyendo la ecuación (84) en (85) y despejando el precio de la opción de venta se tiene:
�(|O, *) = ¶.MÂ�B% Q−(; �, T, VÀ1N, 0R − |O�B% Q(; �, −T, VÀ1
N, 0R. (86)
Las griegas
98
De igual forma que en el modelo clásico Black-Scholes se pueden calcular las griegas para
el caso con distribuciones α-estables a partir de la fórmula de valuación del precio de las
opciones, indicadores que reflejan la sensibilidad del precio de la opción ante cambios en
algunas de las variables de la fórmula de valuación, como lo es el precio del subyacente y la
tasa de interés que en este caso se presentan (Contreras, 2010).
a) Delta
∆h= �B% Q(; �, −T, VÀ1N, 0R. (87)
b) Gama
Γ� = ÜÝÞß(à;á,Mâ,ãÚ1Ù,`)
äå > 0. (88)
c) Rho
æh = À¶.MÂ�B% Q−(, �, T, VÀ1N, 0R > 0. (89)
Las griegas de una opción de venta europea con el modelo estable se pueden calcular
empleando la condición de paridad entre opciones de compra y de venta.
Δ; = Δ� − 1. (90)
Γ; = Γ;. (91)
æè = æh − À¶.MÂ. (92)
99
3.2.11 Valuación de opciones con pago continuo de dividendos con distribuciones α-
estables
Con base en los resultados presentados por Contreras-Piedragil y Venegas (2010), y
partiendo del modelo Black-Scholes para calcular el precio de una opción europea de
compra mediante el enfoque probabilista, suponiendo que el subyacente es una acción que
paga dividendos a una tasa constante conocida (,), tenemos que los rendimientos
logarítmicos se conducen por la siguiente ecuación diferencial estocástica para el caso de
una medida neutral al riesgo α-estable.
(+"|O = (� − , − TV�s.qx)À + ('OÑ , (93)
donde, el horizonte de tiempo está dado por À = (¡ − *).
Suponiendo una función de densidad estable neutral al riesgo y la ecuación estocástica que
conduce a los rendimientos logarítmicos en un escenario neutral al riesgo, el precio de la
opción europea de compra que paga dividendos de manera continua está dado por la
siguiente expresión.
C(St,t)=|O.MéÂΦB% Q(; �, −T, VÀ1N, 0R − ¶.MÂΦB% Q−(; �, T, VÀ1
N, 0R, (94)
donde, (() está dado por:
( = ln Q¤£¸R + (� − , − TV� sec x)À, (95)
y x = �c .
Comparando esta fórmula con la Black-Scholes en la segunda parte de la ecuación la
distribución Ф}�� Q−d; α, β, γτ1Ù, 0R se puede interpretar como la probabilidad de ejercer la
opción, �(() para el caso normal.
100
Precio de una opción de venta con pago de dividendos con distribución α-estable
Sea�(|O, *) el precio de la opción europea de venta, utilizando la propiedad de paridad
call-put, es posible obtener el precio de la opción de venta al tener la fórmula de valuación
de la opción de compra a través de la siguiente expresión.
Paridad Call-Put
P(S�, t) + S�eMêÚ = C(S�, t) + KeM�Ú. (96)
Sustituyendo la ecuación que expresa el precio de una opción de compra en la expresión
anterior y despejando el precio de la opción de venta tenemos que:
�(|O, *) = ¶.MÂΦB% Q−(; �, T, VÀ1N, 0R − |OeMêÚΦB% Q(; �, −T, VÀ1
N, 0R. (97)
Las griegas con pago de dividendos
De igual forma que en el modelo clásico Black-Scholes se pueden calcular las griegas para
el caso con distribuciones α-estables a partir de la fórmula de valuación del precio de las
opciones, indicadores que reflejan la sensibilidad del precio de la opción ante cambios en
algunas de las variables de la fórmula de valuación, como lo es el precio del subyacente y la
tasa de interés que en este caso se presentan.
a) Delta (α-estable)
∆h= eMêÚ�B% Q(; �, −T, VÀ1N, 0R. (98)
b) Gama (α-estable)
Γ� = 9�ëìíÝÞß(à;á,Mâ,ãÚ1Ù,`)
äå > 0. (99)
101
c) Rho (α-estable)
æh = À¶.MÂ�B% Q−(, �, T, VÀ1N, 0R > 0. (100)
Las griegas de una opción de venta europea con el modelo estable se pueden calcular
empleando la condición de paridad entre opciones de compra y de venta.
Δ; = Δ� − 1. (101)
Γ; = Γ;. (102)
ρ; = ρ� − τKeM�Ú. (103)
La nueva ecuación Black-Scholes modificada, con base en el uso de la distribución alpha
estable permite en primera instancia captar la información adicional no captada por la
distribución normal. Lo cual en un escenario de crisis con alta volatilidad y presencia de
impulsividad en la serie permitirá ajustar la valuación de acuerdo con el comportamiento
intrínseco del subyacente, sin suponer normalidad en la serie y que se trata de una
martingala local.
3.3 La Volatilidad Implícita
El modelo de Black-Scholes asume que el precio (S�) de un activo sigue un movimiento
geométrico browniano para así proponer una solución analítica para obtener el precio de
una opción europea de compra o de venta, z(*, |O, ¶, �, ¡, �), o de manera simple z(*, |O), donde (¶) es el precio de ejercicio pactado y (T) es la fecha de expiración de la opción; (r) es la tasa de interés libre de riesgo y * ∈ [0, ¡]. Partiendo de la visión general de la
valuación de opciones se define la volatilidad implícita, denotada por (�ñ), como el valor
de la volatilidad para el cual el precio de la opción generado por el modelo de Black-
Scholes se hace igual al precio de mercado, z(*, |O) = z�.�q)(r.
102
Conociendo en el mercado un conjunto de precios de una opción europea sobre un activo
fijo, correspondientes a diferentes precios de ejercicio, a partir del modelo Black-Scholes
pueden hallarse los respectivos valores de (σI) manteniendo fijos los demás parámetros.
Este proceso lleva asociado el uso de un algoritmo numérico tal como el de Newton-
Raphson. El método de Newton-Raphson es un método iterativo que permite aproximar la
solución de una ecuación del tipo X(a) = 0. Partiendo de una estimación inicial de la
solución (�`) y construyendo una sucesión de aproximaciones de forma recurrente
mediante siguiente expresión.
xó2� = xó − ô(:õ)ôö(:õ). (104)
El valor de la volatilidad (σI) varía con el precio de ejercicio por lo que puede darse el caso
que en una opción de divisas, por ejemplo, la volatilidad sea menor para opciones en el
dinero y se haga progresivamente mayor para aquellas dentro o fuera del dinero, formando
lo que se conoce como sonrisa de la volatilidad (Hull, 2002). La variación de (σI) asociada
a los cambios en el precio de ejercicio de la opción, forma curvas conocidas como efecto
sonrisa (smile) o muecas (skew). La presencia de una volatilidad implícita no constante
sugiere una distribución asociada a los precios del activo subyacente, diferente a la
distribución lognormal considerada en el conjunto de supuestos del modelo Black-Scholes.
La curva de la distribución de retornos reales con frecuencia es leptocúrtica y de colas más
anchas que la distribución normal (no cumple con el supuesto de normalidad). La variación
de la volatilidad implícita (�ñ) también se manifiesta con la variación de la fecha de
expiración. Así, puede construirse una superficie de volatilidad que se obtiene cuando
ambos, precio de ejercicio y fecha de expiración varían. En la figura 5 se representa el
efecto de la presencia de volatilidad implícita entre la valuación teórica y la información
que refleja el mercado.
103
En la figura 6 (a) se presenta la diferencia entre la distribución de probabilidad observada
en un activo financiero cualquiera y la distribución lognormal supuesta en el modelo Black-
Scholes, en la figura 6 (b) se presenta el efecto de la existencia de volatilidad implícita, la
denominada sonrisa de volatilidad que ejemplifica precisamente el diferencial entre la
información capturada por el modelo teórico y la información reflejada en la evidencia
empírica.
Figura 6. Sonrisa de Volatilidad
(a) Distribución de rendimientos para un activo (b) Sonrisa de volatilidad
Fuente: Elaboración propia.
3.4 El Movimientos Browniano Fraccional, el Coeficiente de Hurst y el Análisis de
Rango Re-escalado (R/S)
Las pruebas usualmente utilizadas para detectar comportamientos caóticos a partir de una
serie temporal no resultan suficientes para poder discriminar entre ruidos caóticos de baja
dimensión y ruidos puramente estocásticos o de elevada dimensión (Brock, 1986). Es por
ello que se utiliza la estimación del coeficiente de Hurst a partir de la metodología de
Rango Reescalado. El exponente de Hurst es una medida de memoria en una serie
temporal, que permite discriminar entre procesos generadores puramente estocásticos del
tipo ruido blanco, frente a otros procesos, deterministas o estocásticos, que generan ruidos
negro y rosa.
104
Esto se refiere a los cambios de un proceso estocástico presenten memoria respecto al
pasado, el ruido rosa se refiere a un comportamiento ergódico donde se espera que la serie
presente cambios de dirección en el tiempo, el proceso no correlacionado se denomina
ruido blanco. Por su parte el ruido negro, se refiere al comportamiento del proceso
persistente o que refuerza la tendencia, lo que atribuye un grado de certidumbre al mantener
la tendencia.
3.4.1 El movimiento Browniano Fraccional y el Coeficiente de Hurst
El movimiento browniano es uno de los modelos más utilizados para describir la evolución
de una serie financiera, considerando a la serie como una realización de este proceso
estocástico. El movimiento browniano estándar {�(*); * ≥ 0_, es un proceso estocástico
con trayectorias continuas que satisface las siguientes propiedades.
1. �(0) = 0
2. Los incrementos�(*) − �(s)e)�)* > s, son independientes del comportamiento
pasado, independientes de �(-)qr"0 ≤ - ≤ s.
3. Los incrementos �(*) − �(s)e)�)* > s, se distribuyen normalmente con media 0
y varianza (* − s).
El movimiento geométrico browniano el cual trabaja con los logaritmos de los precios, se
caracteriza por los siguientes supuestos.
• Incrementos estacionarios e independientes.
• Varianza en intervalos de duración constante equidistribuida.
• Distribución de sus incrementos Gaussiana.
• Trayectorias continuas.
105
Aún cuando el movimiento browniano es uno de los modelos más utilizados en la
descripción del comportamiento de series financieras, estas no necesariamente se ajustan a
los supuestos que implica, ya que los mercados no siempre son normales, completos,
eficientes y libres de arbitraje.
De acuerdo a la evidencia presentada por diversos autores, los supuestos que generalmente
no se cumplen del movimiento browniano son los siguientes (Domínguez, Ardila y
Moreno, 2010).
• No estacionariedad. Volatilidad de las series no es constante en el tiempo.
• Dependencia a largo plazo. Los datos financieros generalmente presentan
dependencia en el tiempo.
• Colas pesadas. Las distribuciones de los rendimientos de las series financieras son
leptocúrticas.
• Discontinuidad. La sensibilidad de los datos financieros a información externa,
permite la presencia de saltos.
Como alternativa para superar las debilidades al modelar asumiendo los supuestos que
implica el movimiento geométrico browniano, Mandelbrot propone un modelo denominado
multifractal basado en el movimiento browniano fraccional y los procesos estocásticos
multifractales (Mandelbrot, 1997). El movimiento browniano fraccional es un proceso
gaussiano obtenido mediante una transformación de la integral estocástica del movimiento
browniano unidimensional. Fue considerado por primera vez por el matemático ruso
Kolmogórov (1956) y posteriormente por Mandelbrot en 1968.
106
El movimiento browniano fraccional de índice ÷, {�÷(*); * ≥ 0_(r"(.0 ≤ ÷ ≤ 1, es un
proceso estocástico que satisface (Sierra, 2007).
1. �÷(0) = 0H
2. �[�÷(*)] = 0e)�)*r(r* ∈ ¥
3. La covarianza del proceso para dos instantes s, * ∈ ¥ está dada por la expresión:
�÷(*, s) = �[�÷(s)�÷(*)] = � [|s|2÷ + |*|2÷ − |s − *|2÷
El índice ÷ es el coeficiente de Hurst, en referencia al científico británico Edwin Hurst
(1951), es una medida de independencia de las series de tiempo y permite caracterizar
series fractales. El movimiento browniano estándar puede obtenerse del movimiento
browniano fraccional si ÷ = �, dado que en este caso específico poseen la misma función
de covarianza.
El movimiento browniano fraccional presenta varianza cíclica en diferentes escalas
temporales, considera dependencia estadística de largo plazo, y contempla dos aspectos
importantes de los conjuntos.
1. Autosimilaridad estadística.
2. Dimensión no entera.
Esto implica que si una serie presenta alta dependencia respecto al tiempo, debería
modelarse su comportamiento mediante el movimiento browniano fraccional, que incorpora
las características de independencia o dependencia que presentan muchas series financieras.
Una de las técnicas más utilizadas para identificar series fractales es análisis de rango
reescalado Qø¤R ".
107
Hurst desarrolló la metodología para estimar un coeficiente no paramétrico que permitiera
determinar la independencia de la serie en el tiempo.
Qø¤R " = q"÷, donde: (105)
q: es una constante de proporcionalidad.
": es el número de datos por intervalo.
÷: es el coeficiente de Hurst.
Qø¤R Es un estadístico no paramétrico con media cero, expresado en términos de desviación
estándar.
A continuación se describe brevemente la metodología utilizada para su cálculo:
1. Generar la serie de rendimientos logarítmicos de los datos.
2. Dividir la serie de rendimientos tornos en intervalos (particiones) de igual número
de datos, el número de particiones por el número de datos en cada intervalo debe ser
igual al total de datos.
3. En cada partición:
a. Calcular la media y la desviación estándar.
b. Determinar la variación de cada dato con respecto a la media, acumulando las
diferencias.
c. Establecer el rango restando del dato máximo menos el mínimo.
d. Dividir el rango entre la desviación estándar.
e. De acuerdo a lo anterior y con base en las propiedades de los logaritmos:
Qø¤R " = q"ù, (106)
+" Qø¤R " = ln(q"ù), (107)
+" Qø¤R " = ln(q) + ÷+"("). (108)
108
Con la expresión lineal determinada por el logaritmo del rango reescalado de las particiones
factibles y el logaritmo del número de datos para cada partición (ecuación 108), se realiza
una regresión para establecer el coeficiente Hurst (÷), que corresponde a la pendiente de la
recta de regresión. En esta ecuación (q) representa una constante de proporcionalidad
relacionada con el factor de escala.
1. Sí 0 ≤ ÷ ≤ � se trata de series antipersistentes, con reversión a la media. Si la serie
ha estado arriba de su media de largo plazo es probable que esté abajo en el período
siguiente y viceversa, se considera que esta serie presenta ruido rosa.
2. Si÷ = � los datos son independientes y se considera que no hay memoria. Cumple
con todas las características del movimiento browniano estándar, y se comporta
como ruido blanco.
3. Si � ≤ ÷ ≤ 1, la serie es persistente, se refuerza la tendencia. Si la serie estaba
arriba (o abajo) de su media de largo plazo en el período anterior, lo más probable
es que continúe arriba (o abajo) en el período siguiente. Se considera que la serie
presenta ruido negro y esto aparece generalmente en procesos cíclicos de largo
plazo.
4. Si ÷ = 1, la serie es determinística.
Si el valor del coeficiente Hurst es aproximadamente 0.5, indica un movimiento browniano
estándar y la serie no tiene memoria de largo plazo; o en el caso contrario, cualquier evento
futuro se verá afectado por los datos de periodos anteriores. Como parte del análisis formal
de la independencia de una serie es necesario contrastar la significancia estadística de los
valores estimados del coeficiente de Hurst. El contraste de hipótesis plnteado es el
siguiente:
÷`: El proceso es aleatorio e independiente ^. ^. (�r��)+(0, �2) (Ruido Blanco Gaussiano) ÷�: El proceso está correlacionado (Ruido Gaussiano, persistente o antipersistente)
109
Al respecto, Anis y Loyd (1976) proponen el siguiente procedimiento para realizar este
contraste, mediante la construcción de la serie de valores ¥/| esperados bajo la hipótesis
nula de ruido blanco Gaussiano:
�(¥/|") = (%M13
% )(%c )13 ∑ ú%M
%M�L� . (109)
Con esta nueva serie del valor esperado del rango reescalado, y para los mismos valores de
(") que fueron utilizados con la serie temporal original, se estimará �û÷üý − �(¥/|"), cuya
varianza vendrá dada por:
z)� Q��÷ü�R = �þ. (110)
Así, es posible utilizar estos dos momentos estimados para el exponente de Hurst para
contrastar la hipótesis nula de ruido blanco Gausiano utilizando el siguiente estadístico para
el contraste de hipótesis2:
ùüM�(ùü)1√�
~�(0,1). (111)
3.4.2 El contraste de Lo
La ausencia de dependencia estadística de largo plazo determina un valor de ÷ = 0.5.
Valores de ÷ sensiblemente diferentes de 0.5 son indicativos de persistencia (÷ > 0.5) o
antipersistencia (÷ < 0.5), según sea el caso. No obstante, Lo (1991) señala que a pesar de
que el coeficiente de Hurst permite detectar dependencia de largo plazo, este indicador
presenta sensibilidad a la dependencia de corto plazo. Tomando en consideración lo
anterior, aún así el análisis de Rango Reescalado puede ser utilizado eficientemente para
contrastar hipótesis de variables independientes e idénticamente distribuidas (Lo, 1991).
2En general cuando se utilizar este estadístico para la detección de memoria a largo plazo usando series temporales económicas habrá que tener en cuenta que cuando las series son muy cortas se tenderá a aceptar la H0. En general la muestra necesaria será del orden de 4/(H-E(H))2
110
La propuesta de modificación del cálculo del coeficiente de Hurst que propone Lo es la
siguiente:
� ∗¢= ��∗»(é) (²)a����¢ ∑ ��� − §¢� − ²^"����¢ ∑ (�� − §¢��L���L� )), (112)
donde §¢ y �¢∗(,) se definen de la siguiente forma:
§¢ = Q�¢R∑ ��¢�L� , (113)
�¢∗(,) = (�Y + 2∑ 7�(,)V�)é�L� �/, (114)
�Y y V� representan la estimación de la varianza muestral y autocovarianzas de (�) y (¡) el
tamaño de la serie. El contraste de Lo no emplea una regresión de mínimos cuadrados, ya
que se obtiene un único valor del estadístico para la serie completa.
Las ponderaciones 7�(,) son propuestas por Newey y West (1987), donde:
7�(,) = 1 − �é2� , , < ¡. (115)
Considerando ÷0, dependencia de corto plazo de (��), Lo (1991) muestra que el estadístico
(116) converge al movimiento browniano en un intervalo unitario, lo que permite obtener
su función de distribución:
z¢∗(,) = �√¢ �¢∗ . (116)
La aplicación del test de Lo requiere definir el rezago (,), hasta ahora no existen
metodologías robustas sobre cómo elegir este rezago para muestras finitas, ya que se
encuentra condicionado al proceso que caracterice la serie. Si el valor de (,) es grande
respecto a la muestra (¡), la distribución del estimador puede ser significativamente
distinta de su límite asintótico y si (,) es pequeña no se recogen todas las covarianzas que
deben incluirse, en la suma ponderada. Lo como otros autores como Ambrose, Weinstok y
111
Gruffiths (1993) y MacDonald y Power (1993) utilizan, con base en series diarias o
semanales, una , = 90, 180, 270�360. Pero en todos los casos la elección de (,) ha sido
irrelevante, puesto que no implica variación del estadístico en cuanto a las conclusiones
obtenidas.
El análisis de Rango Reescalado constituye una herramienta para el contrastar si el proceso
que sigue la serie es ruido blanco o existe otra estructura temporal implícita en la serie. Por
lo anterior, el análisis Rango Reescalado puede utilizarse para rechazar la hipótesis de ruido
blanco, y a partir de ahí, continuar con el análisis de la serie con el fin de comprobar si la
estructura temporal tiene características fractales o si por el contrario debe considerarse
como puramente aleatoria.
3.5 Distancias Estadísticas y Técnicas Multivariadas
Una distancia (�) sobre un conjunto ( ) es una aplicación de ( a )."¥, tal que a cada
par (i,j) hace corresponder un número real �(i,j) =�ij , y cumple algunas propiedades
(Cuadras, 1989):
1. �A� ≥ 0
2. �A� = 0
3. �A� = δó~ 4. δ~ó ≤ δ~� +δó�5. δ~ó = 0siysólosii = j6. δ~ó ≤ max{δ~�, δó�_(desigualdadultramétrica)7. δ~ó + δ�F ≤ max{δ~� + δóF, δ~F + δó�_(desigualdadaditiva)8. δ~ó(euclídea)9. δ~~(riemanniana)10. δ~ó(divergencia)
112
Algunas distancias poseen una definición propia según las propiedades que cumplen. En
algunos casos, como la distancia de Mahalanobis, � verifica directamente las propiedades
1-4 y 8-10. La distancia de Mahalanobis (1936) es un caso especial ya que por sus
propiedades que permiten contemplar cambios en la escala y la correlación entre variables
(características que la distancia euclidiana no cumple) más adelante se ampliará el análisis
de la distancia de Mahalanobis.
3.5.1 Distancias sobre matrices
Similaridades
La similaridad de un conjunto ( ) con (") individuos, es una aplicación de ( a )."¥
que cumple las siguientes propiedades:
1) 0 ≤ |A� ≤ 12) |AA = 13) |A� = |�A
|A� = |(^, �), mide el grado de semejanza entre dos elementos (^, �), si ambos elementos
son muy parecidos entonces |A� se aproxima a 1. El concepto de similaridad es
especialmente utilizado cuando sobre ( ) se consideran (") características cualitativas.
� = ∑ aA�%�L� a�� . (117)
T = ∑ (1 − aA���L� )a�� . (118)
V = ∑ aA���L�| �1 − a���. (119)
� = ∑ (1 − a����L� )�1 −a���. (120)
(�) es el número de caracteres presentes comunes, Tes el númro de caracteres ausentes en
(^) pero presentes en (�), etc. Una similaridad |A� es entonces una función de �, T, V.
|A� = X(�, T, V). (121)
113
La asociación entre los (") elementos de ( ) se expresa a través de una matriz de
similaridades (|). Para que una disimilaridad sea considerada como distancia es necesario
aplicar la siguiente expresión:
�A� = 1 −|A� . (122)
Algunos autores proponen utilizar la raíz de la expresión anterior.
�A� =�(1 − |)A�. (123)
Esto permite genera la distancia métrica e incluso la euclidiana, par la mayoría de las
similaridades, en general para una similaridad es posible definir la distancia.
�A� = ú|AA + |��– 2|A�. (124)
Con | como una matriz (semi) definida positiva, entonces �A� es euclídea y por lo tanto es
posible representar ( , �) en el espacio euclídeo (¥, ().
Cabe mencionar la linealidad de estas medidas, en el caso del presente trabajo se pretende
únicamente trabajar con una distancia que permita cuantificar la magnitud entre dos
parámetros. Aún cuando se trata de una medida simple de distancia es necesario recalcar
que al introducir la correlación entre variables y cuantificar los cambios de escala de las
mismas a través de la distancia de Mahalanobis, la magnitud obtenida permitirá tener una
magnitud entre dos parámetros, que es el dato que se requiere en el presente trabajo para la
elaboración de un índice de alerta temprana que permita cuantificar el apego o no de un
parámetro a su valor teórico.
114
3.5.2 Distancias de datos cuantitativos
En una matriz de datos con observaciones para (e) variables aleatorias sobre (") individuos, de la forma:
a = �a�� a� a�è… … …a%� a% a%è
�
Cada individuo (^) puede representarse como un punto (aA) ∈ ¥è. La distancia más
conocida entre dos individuos (^, �) es la distancia euclídea, es decir:
((^, �) = ú∑ (aA�è�L� –a��). (125)
La expresión anterior es un caso particular de las distancias Minkowski (1967)
(é(^, �) = �∑ |aA�è�L� –a��|é�1�, 1 < , < ∞. (126)
Se trata de distancias euclídeas, solo en caso (, = 2). Con (, = 1) se tiene:
((^, �) = ∑ |è�L� aA� − a��|. (127)El uso de la distancia euclídea tiene algunos inconvenientes:
a) No está acotada
b) No es invariante por cambios de escala
c) Considera las (e) variables estocásticamente independientes
Existen modificaciones de la distancia ((^, �) para poder solventar las observaciones
previas, la más práctica y más utilizada es dividir respecto al número de variables,
estimando una distancia al cuadrado.
115
Otras variantes son las métricas de Canberra (Lance y Williams, 1966)
∑ Y!"MY#" (|Y!"|2|Y#"|)
è�L� . (128)
Y el coeficiente de divergencia:
q( = $�è ∑ ¾Y!"MY#"
Y!"2Y#"¿ .è�L� (129)
La elección de una u otra medida de distancia debe realizarse de acuerdo a las propiedades
deseadas para la métrica elegida y de acuerdo a los datos que se desea comparar y la
métrica que se desea estimar.
3.5.3 Distancia de Mahalanobis (1936)
Para una población (x) que está descrita por (%) variables aleatorias, siendo � =(��, …, �è) el vector de medias y (&) la matriz de covarianzas (no singular). La distancia
de Mahalanobis �²(^, �) entre dos individuos (^, �), descritos por los vectores (aA, a�) queda definida por:
�²(^, �) = �aA– a��¦& − 1�aA –a��. (130)
Análogamente, la distancia entre un individuo (^) y la población (x) es:
²(^, x) = �aA – ��¦& − 1�aA – ��. (131)
La distancia entre dos poblaciones x�, x es:
²(x�, x) = ���–��¦& − 1���–��. (132)
116
Algunas de las propiedades de la distancia de Mahalanobis son:
1) ²(^, �) ≥ 0�²(^, �) = 0 si y sólo si aA = a� 2) ²(^, �) = ²(�, ^) 3) ²(^, �) ≤ ²(^, %) + ²(�, %)4) ²(^, �)es invariante por transformaciones lineales no singulares de las variables
5) Es euclídea
6) Es una distancia normalizada, puede expresarse en unidades de desviación
estándar
7) Toma en cuenta las correlaciones entre las variables
8) Si (²è) es la distancia basada en (e) variables y (²è2é)es la distancia
estimada con (e + ,) variables, entonces:
²è ≤²è2é (133)
²è2é =²è +²é (144)
Las propiedades 7 y 8 indican que la distancia es superior para un mayor número de
variables, disminuyendo a medida que aumenta la correlación entre variables. Por lo que si
el número de variables consideradas es grande, la distancia de Mahalanobis no se
incrementa debido a que las variables adicionales serán redundantes.
En la presente investigación se utilizará la distancia de Mahalanobis por las propiedades
antes descritas, cabe mencionar que aún así esta herramienta tiene ciertas limitaciones
respecto al objetivo que se busca, describir en qué medida los parámetros empíricos de las
series se alejan de sus valores teóricos, por lo que definir un mecanismo que permita
caracterizar esta magnitud es un área de oportunidad para futuras investigaciones.
117
3.5.4 Análisis de escalamiento multidimensional métrico: Análisis de Componentes
Principales
Se trata de una generalización para vectores de w)�^)�+.s)+.)*r�^)s(w. ). ) del modelo
normal. En el caso bivariante, la distribución normal de un vector (�, ')’ de media
� = (�1, �2)’ y matriz de covarianzas (Hair, 2011).
Σ ) �� �rw(�, ')�rw(�, ') � *. (135)
Presenta la siguiente función de densidad
X(a, �) = �√c3�|+| .ae <− �
[a − �� ∗ � − �]ΣM� @a −��� −�IK. (136)
Esta expresión se generaliza para el caso de un vector de w. ). con (") componentes. Al
realizar mediciones de algún fenómeno lo más común es recabar una muestra de datos con
el mayor número de variables, sin embargo, para el análisis el inconveniente de esta medida
radica en el aumento del número de correlaciones que deben de considerarse, generalmente
muchas variables miden lo mismo desde diferentes perspectivas.
Por lo anterior la técnica de componentes principales se desarrolló para analizar las
relaciones entre un conjunto de (e) variables correlacionadas que miden información en
común, para poder transformarla en un conjunto de variables resumen no correlacionado,
denominado componentes principales.
Las variables construidas son combinaciones lineales del conjunto previo y se construyen
según el orden de importancia dado el porcentaje de variabilidad original que capturan de la
muestra a resumir. El objetivo es determinar (� < e) variables que sean combinaciones
lineales de las (e) variables originales, que no estén correlacionadas y que compilen la
mayor parte de la información original.
118
Cálculo de los componentes principales
Se considera una serie de variables (a�, a, . . . , aè) y a partir de ellas se busca construir un
nuevo conjunto de variables (��, �, . . . , �è), no correlacionadas entre sí, cuyas varianzas
sean decrecientes. Las �� ((r"(.� = 1, . . . , e) son una combinación lineal de
las(a�, a, . . . , aè) originales.
�� =)��a� + )�a+. . . +)�èaè = )`�Y, (137)
siendo, )`� = ()��, )�, . . . , )è�) un vector de constantes, y
a = (a�, … . , a¼)’. (138)
Para maximizar la varianza que captura el nuevo conjunto de variables es necesario
mantener la ortogonalidad de la transformación y es necesario que se cumpla la siguiente
restricción:
)�¦)� = ∑ )�� = 1.è�L� (139)
El primer componente se estima con base en ()�) de tal forma que (��) contenga la mayor
varianza posible, sujeto a que ()`)� = 1). El segundo componente principal se calcula
con base en ()) sujeto a que la variable generada (�) no esté correlacionada con (��), y
así sucesivamente. En general, no se suele elegir más de tres componentes principales de
las construidas, esto con el objeto de poder presentar las componentes de manera gráfica y
así poder realizar algún análisis posterior (Linares, 2001).
119
Es importante mencionar que este método únicamente se utilizará como una herramienta de
disminución de la dimensión de los datos, a saber, se estimará la distancia entre parámetros
y con base en dichas distancia se construirá un índice que resumirá el cumplimiento o no de
los supuestos teóricos de la teoría financiera generalmente utilizados, normalidad e
independencia. El uso de esta herramienta no se contrapone con los objetivos de la
investigación, aún cuando está técnica supone normalidad, dicho supuesto se validará para
cada seria a través del análisis fractal y de colas pesadas por lo que el análisis de
componentes principales solo se utilizará como un mecanismo para resumir la información
obtenida mediante la construcción de un índice, resultado de la combinación de dos
variables a construir.
El siguiente capítulo abordará el análisis fractal mediante el coeficiente de Hurst de la serie
de tipo de cambio peso dólar para pagar obligaciones en dólares (Fix), de igual forma se
analizará la presencia de colas pesadas en la serie y se validará el cumplimiento de los
supuestos de independencia de la serie en el tiempo y de normalidad o ausencia de
impulsividad en la misma. Posteriormente con esta información se estimarán las distancias
de Mahalanobis entre los valores teóricos del parámetro (�) y el coeficiente de Hurst, para
validar el cumplimiento de los supuestos teóricos generalmente utilizados en la modelación
financiera, normalidad e independencia.
Con las medidas de distancia calculadas se construirá a través de componentes principales
un índice que permitirá identificar la magnitud del cumplimiento de dichos supuestos en
diferentes periodos en el tiempo, con ello se busca establecer una medida de alerta
temprana que permita identificar el momento en que las series financieras se alejan
significativamente del cumplimiento de los supuestos teóricos.
120
Por último, como aplicación de la utilidad del índice para caracterizar periodos de crisis, se
presentará la valuación de opciones de tipo de cambio utilizando la distribución alpha
estable, con el objetivo de mostrar los diferenciales en la valuación de opciones al suponer
el cumplimiento de los supuestos de normalidad e independencia de las series.
El objetivo es mostrar la utilidad del índice como herramienta para caracterizar una serie
financiera antes de cualquier análisis realizado, para que con ello se apliquen las
herramientas necesarias más adecuadas a la realidad reflejada por los datos, sin necesidad
de hacer suposiciones inverosímiles y muchas veces alejadas de la realidad, sobre todo en
periodos de crisis.
121
CAPÍTULO IV. MEDIDAS DE ALERTA TEMPRANA PARA EL ANÁLISIS DE CRISIS FINANCIERAS
De acuerdo con el marco metodológico analizado en los capítulos previos, el objetivo del
presente capítulo es presentar la utilidad de las distribuciones alfa estables y del análisis
fractal, para construir una medida de alerta temprana. Mediante la validación de dos
supuestos han sido tradicionalmente utilizados en el análisis de series financieras, el
supuesto de normalidad e independencia de la serie en el tiempo.
El análisis de las crisis ha transitado por diversos enfoques metodológicos y teóricos,
llegando a la preponderancia de modelos empíricos. La propuesta de medida de alerta
temprana se trata de un modelo empírico, mediante el uso de las distribuciones alfa estables
y el análisis fractal para caracterizar correctamente una serie en la medida que permita ser
un indicador de alerta temprana sobre cambios abruptos en su trayectoria de mediano plazo,
aplicación principal del índice planteado.
Un resultado subsecuente es evaluar dos supuestos trascendentales en el análisis de series
financieras, normalidad e independencia de la serie en el tiempo, que a su vez permitirá
replantear las metodologías que es correcto aplicar de acuerdo a la naturaleza de una serie
de datos específica. En la sección I se presenta la estimación del coeficiente de Hurst y el
parámetro α para caracterizar periodos de crisis, en la sección II se presenta el índice de
alerta temprana propuesto (mensual, trimestral y anual) para la serie de tipo de cambio
peso-dólar. Por último en la sección III de este capítulo se presenta una aplicación de la
utilidad del índice al identificar impulsividad en la serie de tipo de cambio, mediante la
valuación de opciones modelando los rendimientos del subyacente con una distribución
α-estable.
122
4.1 Estimación del coeficiente de Hurst y el parámetro α para caracterizar periodos de
crisis
En esta sección se aborda el análisis de uno de los grandes supuestos considerados para el
estudio de series financieras, la independencia de la serie en el tiempo. Mediante el análisis
de la serie de tipo de cambio en cinco cortes transversales caracterizados por crisis
financieras y considerando años completos, se estimó el coeficiente de Hurst y se probó si
existía independencia de la serie en el tiempo o en su defecto persistencia o
antipersistencia. Estos resultados se contrastaron con la estimación del parámetro (�) de las
distribuciones α-estables, es de esperarse que en aquellos casos en que la serie no se trate
de ruido blanco y presente características fractales, su grado de impulsividad será mayor y
se alejará de los supuestos de normalidad.
4.1.1 El coeficiente de Hurst
Se presentan los valores correspondientes al coeficiente de Hurst para los diferentes
intervalos de tiempo definidos. Las ventanas de tiempo se construyeron con base en la
distinción de periodos de alta volatilidad caracterizados por alguna crisis financiera, por lo
tanto son períodos de difícil pronóstico en el tiempo. La metodología utilizada para el
cálculo del coeficiente de Hurst es el Rango Reescalado, considerando los rendimientos
logarítmicos del tipo de cambio Fix peso-dólar para el periodo 1992-2011. Se realizaron
180 particiones en promedio para cada periodo tomando en cuenta el número de
observaciones de cada corte, este es el número máximo de particiones posibles con la
menor pérdida de datos.
Cuadro 1. Ventanas de Tiempo consideradas
Periodo Años
I 1992-1995
II 1996-1999
III 2000-2003
IV 2004-2007
V 2008-2011
123
En la cuadro 1 se presentan los intervalos de tiempo definidos para analizar la serie. Se
calculó una prueba de hipótesis para poder evaluar la significancia estadística del
coeficiente de Hurst, la prueba planteada es la siguiente:
H0: El proceso es aleatorio e independiente (ruido blanco, H=0.5)
H1: El proceso está correlacionado (positiva o negativamente, H≠0.5)
Se utilizó la prueba planteada por Anis y Loyd (1976), la cual utiliza para el contraste de
hipótesis el siguiente estadístico.
�� = ���(��)�� (��)�
(1)
El estadístico Z� se contrasta con las tablas de probabilidad de la distribución normal y la
hipótesis nula se aceptará con un 95% de confianza. De los cinco periodos analizados se
aceptó la hipótesis nula tan solo en el periodo III, esto es que únicamente en el periodo
2000-2003 se puede decir que la serie es independiente en el tiempo o se trata de ruido
blanco. La metodología de Rango Reescalado recibe críticas sobre la imposibilidad de
capturar la dependencia de corto plazo. Lo (1991) propone una modificación en la
estimación del coeficiente de Hurst mediante el reemplazo de la desviación típica por otro
factor de normalización que recoja la posible correlación en el corto plazo que pudiera
existir en los datos, el estadístico definido se denomina Rango Reescalado Modificado o
contraste de Lo (presentado en el capítulo III).
��∗(�) = �√���
∗ (2)
En esta investigación se optó por trabajar con la metodología de Rango Reescalado, pero
para dar robustez a las estimaciones del coeficiente de Hurst se estimó la prueba estadística
de Anis y Loyd (1976) y la prueba de Lo (1991) o el coeficiente de Rango Reescalado
Modificado. A continuación se presentan los resultados de la estimación del coeficiente de
Hurst para los periodos definidos.
124
Periodo I. Para el primer periodo de tiempo considerado, que incluye la crisis de finales de
1994 podemos observar los siguientes resultados.
Figura 7. Tipo de cambio y sus rendimientos (1992-1995)
Fuente: Elaboración propia con base en información del Banco de México.
En la figura 7 podemos observar los rendimientos logarítmicos del tipo de cambio y los
valores del tipo de cambio Fix en el periodo 1992-1995, el eje del lado izquierdo muestra el
valor del tipo de cambio y el del lado derecho los rendimientos logarítmicos. En este
periodo de análisis es necesario mencionar que de 1990 a 1994 se mantuvo un tipo de
cambio mediante un sistema de bandas cambiarias por lo cual, no es sino hasta finales de
1994 donde realmente la volatilidad del mercado afecta los mercados cambiarios y a partir
de donde el análisis de series financieras como se conoce en la actualidad toma sentido, ya
que a partir del 22 de diciembre de 1994 el tipo de cambio en México es de libre flotación.
Figura 8. Coeficiente de Hurst periodo I
Fuente: Elaboración propia con base en información del Banco de México.
-20%
-15%
-10%
-5%
0%
5%
10%
15%
20%
25%
3
8
13
18
23
28
en
e-9
2fe
b-9
2a
br-
92
ma
y-9
2ju
l-9
2a
go
-92
sep
-92
no
v-9
2d
ic-9
2fe
b-9
3m
ar-
93
ma
y-9
3ju
n-9
3a
go
-93
sep
-93
no
v-9
3d
ic-9
3fe
b-9
4m
ar-
94
ma
y-9
4ju
n-9
4a
go
-94
sep
-94
no
v-9
4d
ic-9
4fe
b-9
5m
ar-
95
ma
y-9
5ju
n-9
5a
go
-95
sep
-95
no
v-9
5d
ic-9
5
RendimientosTipode cambio
Tipo de cambio Rendimientos
2.1
2.3
2.5
2.7
2.9
3.1
3.3
3.5
3.7
3.9
4.1
4.6 5.1 5.6 6.1 6.6
Ln(R/S)
Ln(n)
y = 0.790x + (-1.726)
125
La figura 8 muestra la estimación del coeficiente de Hurst para esta ventana de tiempo, en
el eje horizontal se encuentra el logaritmo del número de datos para cada partición y en el
eje vertical se encuentra el logaritmo del estadístico de rango reescalado calculado, la
pendiente de la regresión estimada con estos dos datos determina el coeficiente de Hurst. El
coeficiente estimado para el periodo I, H=0.790, denota que la serie es persistente y se
rechaza H0. Como se mencionó anteriormente hasta diciembre de 1994 el tipo de cambio se
mantenía controlado mediante una banda de flotación. El objetivo de considerar el periodo
completo fue ilustrar el cambio en la política cambiara y considerar intervalos de al menos
tres años para las particiones del periodo de estudio para observar los cambios en la serie.
Periodo II. El segundo periodo de tiempo considerado que abarca de 1996-1999, muestra
un comportamiento similar al periodo uno, respecto a la dependencia de los datos a través
del tiempo.
Figura 9. Tipo de cambio y sus rendimientos (1996-1999)
Fuente: Elaboración propia con base en información del Banco de México.
La figura 9 muestra los rendimientos logarítmicos del tipo de cambio y los valores del tipo
de cambio Fix en el periodo 1996-1999, el eje del lado izquierdo muestra el valor del tipo
de cambio y el del lado derecho los rendimientos logarítmicos. En este periodo se observa
mayor volatilidad del tipo de cambio. De igual forma que en el periodo I existe persistencia
en los datos de acuerdo con el valor del coeficiente de Hurst estimado, H=0.683.
-4%
-3%
-2%
-1%
0%
1%
2%
3%
4%
5%
6%
3
8
13
18
23
28
en
e-9
6fe
b-9
6m
ar-
96
ma
y-9
6ju
n-9
6ju
l-9
6se
p-9
6o
ct-9
6d
ic-9
6e
ne
-97
feb
-97
ab
r-9
7m
ay-
97
jul-
97
ag
o-9
7se
p-9
7n
ov-
97
dic
-97
feb
-98
ma
r-9
8a
br-
98
jun
-98
jul-
98
ag
o-9
8o
ct-9
8n
ov-
98
en
e-9
9fe
b-9
9m
ar-
99
ma
y-9
9ju
n-9
9a
go
-99
sep
-99
oct
-99
dic
-99
RendimientosTipode cambio
Tipo de cambio Rendimientos
126
Figura 10. Coeficiente de Hurst periodo II
Fuente: Elaboración propia con base en información del Banco de México.
La figura 10 muestra la estimación del coeficiente de Hurst para esta ventana de tiempo, en
el eje horizontal se encuentra el logaritmo del número de datos para cada partición y en el
eje vertical el logaritmo del estadístico de rango reescalado calculado, la regresión estimada
con estos dos datos determina el coeficiente de Hurst como la pendiente de la recta. Sin
embargo, con la prueba de Anis y Loyd (1976) se acepta H0 a un 95% de confianza.
Periodo III. El tercer periodo propuesto, que abarca de 2000-2003 muestra un
comportamiento contrario a los previos, ya que la mayor volatilidad se registra a mitad del
año 2000, aún así la dependencia de la serie en el tiempo muestra un comportamiento sin
correlación de la serie.
2.4
2.6
2.8
3.0
3.2
3.4
3.6
3.8
4.0
4.6 5.1 5.6 6.1 6.6
Ln(R/S)
Ln(n)
y = 0.683x + (-0.996)
127
Figura 11. Tipo de cambio y sus rendimientos (2000-2003)
Fuente: Elaboración propia con base en información del Banco de México.
La figura 11 muestra los rendimientos logarítmicos del tipo de cambio y el tipo de cambio
Fix en el periodo 2000-2003, el eje del lado izquierdo muestra el valor del tipo de cambio y
el del lado derecho los rendimientos logarítmicos.
Figura 12. Coeficiente de Hurst periodo III
Fuente: Elaboración propia con base en información del Banco de México.
La figura 12 muestra la estimación del coeficiente de Hurst para esta ventana de tiempo, en
el eje horizontal se encuentra el logaritmo del número de datos para cada partición y en el
eje vertical el logaritmo del estadístico de rango reescalado calculado, la pendiente de la
regresión estimada determina el coeficiente de Hurst.
-4%
-3%
-2%
-1%
0%
1%
2%
3%
3
6
9
12
15
18
21
24
ene-
00fe
b-00
mar
-00
may
-00
jun-
00ju
l-00
sep-
00oc
t-00
dic-
00en
e-01
feb-
01ab
r-01
may
-01
jul-0
1ag
o-01
sep-
01no
v-01
dic-
01en
e-02
mar
-02
abr-
02ju
n-02
jul-0
2ag
o-02
oct-0
2no
v-02
ene-
03fe
b-03
mar
-03
may
-03
jun-
03ag
o-03
sep-
03oc
t-03
dic-
03
RendimientosTipo de cambio
Tipo de cambio Rendimientos
2.5
2.7
2.9
3.1
3.3
3.5
3.7
3.9
4.6 5.1 5.6 6.1 6.6
Ln(R/S)
Ln(n)
y = 0.465x + (0.404)
128
El coeficiente H=0.465 denota que la serie es aleatoria y que existe independencia de la
serie en el tiempo, se rechaza H0 por lo tanto la serie presenta antipersistencia.
Periodo IV. El cuarto periodo propuesto, que abarca de 2004-2007 muestra dependencia de
la serie en el tiempo, un comportamiento antipersistente. En general este periodo presentó
cierta estabilidad que se ve reflejad al observar los rendimientos del tipo de cambio.
Figura 13. Tipo de cambio y sus rendimientos (2004-2007)
Fuente: Elaboración propia con base en información del Banco de México.
La figura 13 muestra los rendimientos del tipo de cambio y el tipo de cambio Fix en el
periodo 2004-2007, el eje del lado izquierdo muestra el valor del tipo de cambio y el del
lado derecho los rendimientos logarítmicos. De acuerdo con el valor estimado del
coeficiente de Hurst, H=0.74, la serie es antipersistente.
-1.5%
-1.0%
-0.5%
0.0%
0.5%
1.0%
1.5%
2.0%
3
5
7
9
11
13
15
17
19
21
23
25
27
29
ene-
04fe
b-04
mar
-04
may
-04
jun-
04ju
l-04
ago-
04oc
t-04
nov-
04di
c-04
feb-
05m
ar-0
5ab
r-05
jun-
05ju
l-05
ago-
05oc
t-05
nov-
05di
c-05
ene-
06m
ar-0
6ab
r-06
jun-
06ju
l-06
ago-
06se
p-06
nov-
06di
c-06
feb-
07m
ar-0
7ab
r-07
jun-
07ju
l-07
ago-
07oc
t-07
nov-
07di
c-07
RendimientosTipo de cambio
Tipo de cambio Rendimientos
129
Figura 14. Coeficiente de Hurst periodo IV
Fuente: Elaboración propia con base en información del Banco de México.
La figura 14 muestra la estimación del coeficiente de Hurst para esta ventana de tiempo, en
el eje horizontal se encuentra el logaritmo del número de datos para cada partición y en el
eje vertical se encuentra el logaritmo del estadístico de rango reescaldado calculado, la
pendiente de la regresión estimada determina el coeficiente de Hurst. El ajuste del rango
reescalado mediante la regresión estimada nos muestra que el coeficiente de Hurst,
H=0.3743, denota que la serie es antipersistente en el tiempo, se rechaza H0.
Periodo V. El quinto periodo propuesto, que abarca de 2008-2011 muestra un
comportamiento mucho más volátil, esto es por la crisis mundial que se detonó en 2008 y
que se ha agravado a la fecha, podemos ver que nuevamente existe dependencia de la serie
respecto al tiempo y que la serie presenta un comportamiento persistente. El tipo de cambio
fue una variable que se vio altamente afectada por los desequilibrios económicos
internacionales y evidentemente por la alta dependencia de México respecto a la economía
de Estados Unidos.
2.4
2.6
2.8
3.0
3.2
3.4
3.6
4.6 5.1 5.6 6.1 6.6
Ln(R/S)
Ln(n)
y = 0.374x + (0.369)
130
Figura 15. Tipo de cambio y sus rendimientos (2008-2011)
Fuente: Elaboración propia con base en información del Banco de México.
La figura 15 muestra los rendimientos logarítmicos del tipo de cambio y el tipo de cambio
Fix en el periodo 2008-2011, el eje del lado izquierdo muestra el valor del tipo de cambio y
el del lado derecho los rendimientos logarítmicos. Se puede observar autosimilaridad en la
gráfica de los rendimientos.
Figura 16. Coeficiente de Hurst periodo V
Fuente: Elaboración propia con base en información del Banco de México.
-8%
-6%
-4%
-2%
0%
2%
4%
6%
8%
3
8
13
18
23
28
en
e-0
8fe
b-0
8m
ar-
08
ab
r-0
8ju
n-0
8ju
l-0
8a
go
-08
se
p-0
8o
ct-
08
dic
-08
en
e-0
9fe
b-0
9m
ar-
09
ma
y-0
9ju
n-0
9ju
l-0
9a
go
-09
oct-
09
no
v-0
9d
ic-0
9e
ne
-10
ma
r-1
0a
br-
10
ma
y-1
0ju
n-1
0a
go
-10
se
p-1
0o
ct-
10
no
v-1
0d
ic-1
0fe
b-1
1m
ar-
11
ab
r-1
1ju
n-1
1ju
l-1
1a
go
-11
se
p-1
1o
ct-
11
dic
-11
RendimientosTipo de cambio
Tipo de cambio Rendimientos
2.0
2.5
3.0
3.5
4.0
4.5
4.6 5.1 5.6 6.1 6.6
Ln(R/S)
Ln(n)
y = 0.579x + (-0.022)
131
La figura 16 muestra la estimación del coeficiente de Hurst para esta ventana de tiempo, en
el eje horizontal se encuentra el logaritmo del número de datos para cada partición y en el
eje vertical se encuentra el logaritmo del estadístico de rango reescaldado calculado, la
pendiente de la regresión estimada determina el coeficiente de Hurst. El ajuste del rango
reescalado mediante la regresión estimada nos muestra que el coeficiente de Hurst,
H=0.579, denota que la serie es persistente en el tiempo, se rechaza H0.
En este último periodo la serie muestra persistencia, dados periodos de alta volatilidad en
todos los años a partir de que se detonó la crisis de 2008 en el mundo, el tipo de cambio es
una de las variables que refleja el efecto de la volatilidad del mercado en el mundo y la
dependencia de México respecto a la situación económica de Estados Unidos.
Los cinco periodos analizados muestran que la serie del tipo de cambio es una serie que
difícilmente presenta ruido blanco en el comportamiento de sus rendimientos, por el
contrario en periodos de alta volatilidad la serie denota ruido negro (antipersistencia) y
ruido rosa (persistencia), solo en uno de los cinco periodos analizados se determinó la
existencia de ruido blanco en la serie. En el siguiente cuadro se presentan los resultados
para los cinco periodos determinados para el análisis fractal de la serie de tipo de cambio
para México (1992-2011) mediante la estimación del coeficiente de Hurst.
Trabajos como el de López, Villagómez y Venégas (2009) han presentado evidencia de la
presencia de características fractales en el mercado accionario mexicano, en el ámbito
internacional, Mills (1993) ha mostrado la presencia de memoria de largo plazo en el
mercado accionario del Reino Unido. Los resultados generados en el presente trabajo
fortalecen esa hipótesis a través del análisis del tipo de cambio como una variable
indicadora de periodos de recesión y alta volatilidad en los mercados.
132
Cuadro 2. Coeficiente de Hurst estimado /1
Periodo Años Coeficiente
de Hurst
Estadístico
Anis-Loyd
P-value 5% Estadístico de Lo 5%
/2/3
I 1992-1995 0.790 -3.994
0.0000651
1.3331,
1.4383,
1.3606,
1.3253
II 1996-1999 0.683 -0.609
0.5428443
1.5992,
1.5498,
1.6425,
1.8383
III 2000-2003 0.465 6.292
0.0000000
1.4048,
1.6310,
1.5045,
1.5656
IV 2004-2007 0.374 9.186
0.00000000
1.1221,
1.3652,
1.4567,
1.8213
V 2008-2011 0.579 2.681
0.00733932
1.3024,
1.3714,
1.5406,
1.7017
Total (1992-2011) 0.656 -2.046 0.04078425 1.2433,
1.2731,
1.2112,
1.1958
1/ Para los dos estadístico utilizados la potencia de la prueba se ve afectada por el número de datos utilizados, el orden de
la potencia de la prueba es de 34% para 250 datos, 63% para 500 datos y 83% para al menos 1000 observaciones.
2/ Para el estadístico de Lo, el valor de los rezagos del parámetro (q) afecta la potencia de la prueba, entre mayor número
de rezagos menor potencia de la prueba. El número de rezagos a utilizar ha sido tema de debate, autores como Ambrose,
Weinstock y Griffiths (1993), Mills (1993) y MacDonal y Power (1993) utilizan, sobre muestras de datos diarios o
semanales, q=90, 180, 270 y 360, que son los cuatro valores presentados respectivamente.
3/ Los valores críticos para el contraste de Lo son: ��.�� = 1.62;��.� = 1.75;��.�# = 1.86;��.�� = 2.10. Ver Lo
(1991).
Fuente: Elaboración propia con base en información del Banco de México.
133
Para la serie de tipo de cambio peso-dólar el coeficiente de Hurst es estadísticamente
diferente de H=0.5, lo que denota persistencia y antipersistencia según el valor de H, este
comportamiento se identifica en aquellos episodios de alta volatilidad. Solo en el periodo II
se acepta la hipótesis nula H0: H=0.5 (ruido blanco). Por su parte el contraste de Lo
presenta datos diversos, a un nivel de significancia del 95% y con una � = 360, los
resultados para el periodo II, IV y V se acercan al valor crítico. Al incrementar el número
de rezagos el valor crítico se acerca al rechazo de H0, es claro el rechazo de persistencia,
pero no contundente. La serie exhibe un tipo de dependencia fuerte de carácter finito, el
tema se centra en la calificación de la memoria que presentan las series.
Si la memoria a largo plazo que aparece en los fenómenos económicos es finita y su
longitud depende del proceso que genera la serie, el cálculo sobre el total de la serie
(realizado el contraste de Lo) puede oscurecer la existencia de dependencias finitas, no
pudiendo derivarse de su rechazo la independencia o dependencia débil de las series, esta
prueba puede resultar insensible a algunas alternativas de dependencia a largo plazo como
los sistemas deterministas no lineales (Lo, 1991).
No obstante es conveniente recordar que los resultados del procedimiento de Rango
Reescalado pueden responder a la conducta pre asintótica de ' al utilizar valores de (
pequeños, aunque la ausencia de una prueba adecuada para verificar este hecho de manera
contundente nos impide contrastar esta posibilidad (Peters, 1992). El test presentado por
Anis y Loyd (1976) nos permite identificar que en el supuesto que la serie fuera ruido
blanco el coeficiente de Hurst sería el valor estimado de su esperanza, de ahí que la
aceptación o rechazo de esta prueba únicamente nos dice si es diferente o no de ' de 0.5,
no buscando contrastar el efecto de la memoria de largo plazo ajustado por el efecto de
corto plazo como lo hace el test de Lo. Adicionalmente, la propia denominación de la
memoria de largo plazo es confusa o imprecisa, lo que le resta utilidad y genera una línea
de investigación futura.
134
Para los objetivos del presente trabajo, que son la validación de un supuesto de modelación
financiera, la prueba presentada por Anis y Loyd (1976), permite conocer (a falta de un
contaste adecuado) la presencia de dependencia fuerte de carácter finito distinta de las
consideradas como memoria a corto plazo. El uso del análisis de Rango Reescalado y de
este estadístico de contraste permitirá analizar las series con mayor precisión, no asumiendo
por convención la independencia de la serie en el tiempo. Por ello se recomienda trabajar
con esta prueba a niveles altos de significancia y de potencia de la prueba.
Cabe destacar que los coeficientes presentados en periodos caracterizados por crisis son
similares, es el caso del periodo V que abarca 2008-2011 y muestra un coeficiente similar
al presentado en los episodios de crisis de 1995 y 1997, de los periodos I y II. Los periodos
donde hubo alta volatilidad o crisis financiera presentan un coeficiente de Hurst distinto de
0.5, lo cual denota que el coeficiente de Hurst es un buen indicador para caracterizar
periodos de crisis en una serie al alejarse significativamente del parámetro de ruido blanco
' = 0.5. Una vez identificado que en una serie existen características fractales, persistencia
y antipersistencia es necesario como en el caso de la identificación de la impulsividad de la
serie, definir alternativas de análisis en este caso el utilizar el movimiento browniano
fraccional es una alternativa plausible.
4.1.2 El parámetro α
Con el objetivo de evaluar la impulsividad de la serie en los intervalos de tiempo definidos
se estimó el parámetro α correspondiente a la distribución α-estable, con base en el
software desarrollado por Nolan (1997), estable.exe. Se consideraron los mismos cinco
periodos de tiempo analizados previamente y para cada uno de ellos se ajustó la
distribución α-estable. El parámetro α indica que tan impulsiva es una serie y si denota la
presencia de valores extremos o colas pesadas. Este es el caso de muchas variables
financieras en periodos de alta volatilidad y que es imposible modelar asumiendo que las
series se distribuyen normalmente.
135
Se consideró la parametrización )� que es la generalmente utilizada (Samorodnitsky y
Taqqu, 1994) para la modelación de datos financieros. Del ajuste de los datos de los cinco
periodos considerados, se obtuvieron los parámetros que caracterizan a la distribución por
los tres métodos hasta ahora generalmente utilizados, que son el método de máxima
verosimilitud, método de cuantiles y de regresión (Nolan, 2005).
En este caso se utilizó el método de regresión ya que fue el método que presentó un buen
ajuste a los datos de acuerdo con la prueba Anderson Darling. Cabe mencionar que en los
tres métodos utilizados y para los cinco periodos no se rechaza la prueba de hipótesis
'0:+,-./0.-.,12-3,,24,50-3/06270ó4� − .-3,6+.. Sin embargo, el método de
regresión es el mayormente utilizado en el análisis de series financieras por que presenta un
mejor ajuste de las colas de la distribución.
Cuadro 3. Parámetros de la distribución α-estable estimados
Fuente: Elaboración propia con base en información del Banco de México.
Los parámetros de la distribución α-estable fueron contrastados estadísticamente utilizando
la prueba Anderson-Darling (1952), a un 95% de confianza. Para el caso de estimar la
bondad de ajuste en series con colas pesadas la prueba Anderson-Darling ha presentado
mayor robustez por sus características intrínsecas de construcción (Kabašinskas, 2009). El
coeficiente de Hurst fue estadísticamente distinto de 0.5, con excepción del periodo II, lo
que denota que la serie no es independiente y la existencia de persistencia y antipersistencia
en el tiempo. Para el caso del ajuste de la distribución α-estable en todos los periodos no se
rechazó la hipótesis de que la serie se distribuye α-estable.
Período
Α
β
γ
δ
Estadístico
Anderson
Darling
P-value 5%
I 0.7895 0.1552 0.0011 -0.0005 0.77799 0.49712
II 1.6808 0.3011 0.0029 0.0002 0.19396 0.99197
III 1.9249 0.7294 0.0033 0.0002 0.47110 0.77637
IV 1.9431 1.0000 0.0026 -0.0003 0.79351 0.48567
V 1.6127 0.6389 0.0041 0.0009 0.47295 0.77447
136
El caso normal es aquel que corresponde a un α=2, mientras más se acerca el valor de α a 2
es metodológicamente aceptable modelar la serie con el supuesto de normalidad. En otro
caso, la presencia de impulsividad en la serie generaría resultados equivocados. Los dos
periodos en que hay menor volatilidad de la serie, el parámetro α se acerca al caso normal.
En congruencia con el coeficiente de Hurst estimado, periodos de baja volatilidad presentan
valores cercanos a 0.5 (ruido blanco). La estimación del parámetro α permite conocer si es
correcto o no utilizar la distribución normal al modelar una serie financiera.
Es prioritario conocer si la serie presenta impulsividad y dependencia en el tiempo,
características que de presentarse generarían errores en las estimaciones realizadas, al
trabajar asumiendo normalidad e independencia en todas las series a lo largo del tiempo de
manera indiscriminada, en el cuadro 4 se presentan los resultados de este análisis para el
periodo 1992-2011.
Cuadro 4. El coeficiente de Hurst y el parámetro α
Periodo Año Hurst α
I 92-95 0.790 0.7895
II 96-99 0.683 1.6808
III 2000-2003 0.465 1.9249
IV 2004-2007 0.374 1.9431
V 2008-2011 0.579 1.6127
Total 92-2011 0.656 1.5036
Fuente: Elaboración propia con base en información del Banco de
México.
En esta sección se mostró que ambos indicadores están relacionados en sus implicaciones
en la determinación del análisis de una serie en particular, en el caso de presencia de
impulsividad en la serie se puede optar por la utilización de las distribuciones α-estables y
para el caso de presencia de características fractales es factible la utilización del
movimiento browniano fraccional.
137
El caracterizar una serie con base en estos dos parámetros permite determinar el análisis
metodológicamente correcto por aplicar a una serie en un periodo de tiempo específico.
Figura 17. El coeficiente de Hurst y el parámetro α
Fuente: Elaboración propia con base en información del Banco de
México.
Como se puede observar en la figura 17 mientras el coeficiente de Hurst se aleja del
parámetro de ruido blanco (' = 0.5) el parámetro α por su parte se aleja del parámetro
normal (� = 2). La utilización de manera simultánea de ambos parámetros permitirá
caracterizar la serie con base en la verificación de los supuestos de normalidad e
independencia y en el caso en que no se cumplan dichos supuestos, determinar la
metodología correcta por aplicar a una serie.
De igual forma la medida en que dichos parámetros se alejan de sus valores hipotéticos de
ruido blanco y normalidad, permitirá definir una medida de alerta temprana en el
comportamiento de la serie.
0.00
0.20
0.40
0.60
0.80
1.00
1.20
1.40
1.60
1.80
2.00
0.00
0.10
0.20
0.30
0.40
0.50
0.60
0.70
0.80
0.90
1.00
I II III IV V
αHurst
Hurst Alpha
138
4.2 El coeficiente de Hurst y el parámetro α como indicadores de alerta temprana
Tomando en consideración la información que aportan el coeficiente de Hurst y el
parámetro α sobre una serie, en esta sección se construirá una medida de alerta temprana
que por un lado será un indicador de que una serie presenta en determinado periodo
impulsividad y persistencia o antipersistencia, según sea el caso. Con el objetivo de que la
medida propuesta sea de utilidad para el análisis financiero cotidiano se estimará para tres
frecuencias en el tiempo, mensual, anual y multianual.
Se calculan ambos parámetros para la serie diaria de tipo de cambio Fix del periodo
1992-20121, de manera mensual, trimestral y anual. En primer lugar se presentan los
valores correspondientes al coeficiente de Hurst para los diferentes intervalos de tiempo, a
continuación se presenta la estimación del parámetro α para la serie en cuestión.
Posteriormente se analizan las disimilaridades entre las estimaciones de los parámetros y el
parámetro de caminata aleatoria para el coeficiente de Hurst y el caso normal para el
parámetro α. Con ambos indicadores y las disimilaridades de respectivos parámetros
hipotéticos ideales para la modelación financiera y análisis de riesgos, se construye el
índice de alerta temprana mediante escalamiento multidimensional.
4.2.1 Coeficiente de Hurst
Se estimó el coeficiente de Hurst para una serie del tipo de cambio Fix de 1992-2012 con
datos diarios, analizando la independencia de los datos en el tiempo. La metodología
utilizada para el cálculo del coeficiente de Hurst es mediante el Rango Reescalado,
considerando los rendimientos logarítmicos del tipo de cambio Fix, se estima el coeficiente
de Hurst de para la serie analizada utilizando el número máximo de particiones posibles
con la menor pérdida de datos en cada periodo de análisis.
1 Para 2012 se considera solo el primer trimestre del año.
139
El coeficiente de Hurst muestra persistencia y anti persistencia en aquellos episodios de alta
volatilidad, podemos observar que en la estimación mensual del coeficiente hay valores
cercanos a 1 esto denotaría que la serie es determinista, sin embargo, se debe a que al
utilizar la técnica de rango reescalado en series cortas el parámetro estimado puede ser
sobreestimado (Hastings y Sugihara, 1993). Los valores observados en los datos mensuales
denotan la presencia de pocos valores cercanos a ' = 0.5, que sería el caso de
independencia de la serie en el tiempo, ruido blanco. La línea de referencia que se presenta
en la figura 18 representa el valor de ' = 0.5.
Figura 18. Coeficiente de Hurst mensual (1992-2012)
Fuente: Elaboración propia con base en información del Banco de México.
Para el caso de la estimación trimestral del coeficiente de Hurst podemos observar que los
valores cercanos a 1 prácticamente desaparecen, esto porque las series son más largas, de
igual forma que en el caso mensual se refleja la presencia de persistencia y anti persistencia
en periodos de alta volatilidad (Ver figura 19).
140
Figura 19. Coeficiente de Hurst trimestral (1992-2012)
Fuente: Elaboración propia con base en información del Banco de
México.
Para los datos anuales (Figura 20) el coeficiente de Hurst refleja resultados variables en el
mismo sentido que en las dos periodicidades previas, es claro que mientras más datos se
utilicen para estimar el coeficiente, la robustez del parámetro será mayor.
Figura 20. Coeficiente de Hurst anual (1992-2011)
Fuente: Elaboración propia con base en información del Banco de
México.
141
Solo en dos años, 1999 y 2006, el coeficiente de Hurst presenta valores cercanos al
parámetro de ruido blando en los demás periodos denota persistencia y antipersistencia,
sobre todo en aquellos años identificados como periodos de crisis.
4.2.2 Parámetro α
Se estima el parámetro α correspondiente a la distribución alfa estable, con base en el
software desarrollado por J.P Nolan estable.exe, se ajustó la distribución α-estable a la serie
de tipo de cambio. El parámetro α indica el grado de impulsividad de la serie y denota la
presencia de valores extremos o colas pesadas, el caso de muchas variables financieras en
periodos de alta volatilidad. Elementos que es imposible modelar asumiendo que las series
se distribuyen normalmente. Se consideró la parametrización )� que es la generalmente
utilizada (Samorodnitsky y Taqqu, 1994) para la modelación de datos financieros.
Del ajuste de los datos se obtuvieron los parámetros que caracterizan a la distribución por
los tres métodos hasta ahora generalmente utilizados, máxima verosimilitud, método de
cuantiles y de regresión (Nolan, 2005). En este caso se utilizó el método de regresión ya
que es el método generalmente utilizado en el análisis de series financieras por que presenta
un mejor ajuste de las colas de la distribución.
Como se puede observar en la figura 21 los dos periodos en que hay menor volatilidad de la
serie el parámetro � se acerca al parámetro de normalidad. Si existen periodos donde el
parámetro � está cerca al caso normal, permite construir el contra factual respecto aquellos
periodos de alta volatilidad, lo que permite la diferenciación de casos con ayuda del
parámetro � para la construcción del índice de alerta temprana. La línea de referencia
donde � = 2 muestra cuantos datos y en que periodos, existe baja impulsividad en la serie.
142
Figura 21. Parámetro α mensual (1992-2012)
Fuente: Elaboración propia con base en información del Banco de México.
En congruencia con el coeficiente de Hurst estimado, los periodos con menor volatilidad
presentan valores cercanos a ' = 0.5:� = 2, el caso donde los rendimientos presentan
ruido blanco y menor impulsividad.
Figura 22. Parámetro α trimestral (1992-2012)
Fuente: Elaboración propia con base en información del Banco de México.
143
Como en el caso de la estimación del coeficiente de Hurst, al estimar el parámetro α de
manera trimestral (Figura 22) se observa que en toda la serie disminuyen las observaciones
donde efectivamente el parámetro de impulsividad está cercano al caso normal.
Figura 23. Parámetro α anual (1992-2011)
Fuente: Elaboración propia con base en información del Banco de México.
Utilizando una frecuencia de datos anual (Figura 23), se mantiene la tendencia previa, años
de crisis presentan un parámetro� alejado del caso normal. El resto de los datos oscilan
alrededor de 1.5 y 2. La estimación del coeficiente de Hurst y el parámetro � permitirá
conocer si es correcto o no utilizar modelos tradicionalmente al momento de modelar una
serie financiera, así como los modelos correctos a utilizar.
Es importante conocer con antelación si la serie analizada presenta impulsividad y
dependencia en el tiempo, características que de presentarse, generarían errores en las
estimaciones realizadas e impactarían en la toma de decisiones. Tener un indicador que
permita conocer en qué medida se alejan los parámetros del caso teórico, podría ser una
herramienta de alerta temprana para el análisis financiero, a través de la definición de
umbrales mínimos de tolerancia.
144
4.2.3 Indicadores de alerta temprana
Tomando en consideración el valor de los parámetros que caracterizan el caso en que los
datos presentan baja impulsividad y cuando no existe dependencia de los datos en el
tiempo, ' = 0.5:� = 2. Se calcularon las disimilaridades entre los parámetros estimados
para cada periodo de tiempo según la frecuencia y los parámetros normalidad y de no
dependencia de los datos en el tiempo.
Se estimaron cuatro medidas de disimilaridad con el objetivo de cuantificar que tan
alejados se encuentran los parámetros en cada periodo del caso teórico o ideal,
Disimilaridad Euclidiana al Cuadrado, Chebychev, Minkowsky y Mahalanobis. Para
cuantificar la disimilaridad entre parámetros se eligió utilizar las disimilaridad de
Mahalanobis escalada en un rango de (0,1), la distancia de Mahalanobis entre las
observaciones o individuos (0:1) está definida por la siguiente expresión:
;(0, 1) = (=> −=?)′� − 1(=> − =? ) (3)
Existe una gran cantidad de indicadores de disimilaridad y no se puede disponer de una
regla general que nos permita definir una disimilaridad conveniente para todo tipo de
análisis. De las propiedades de que goce, de la naturaleza de las variables utilizadas, los
individuos estudiados y de la finalidad del análisis dependerá la adecuada elección de una u
otra. Se eligió utilizar la disimilaridad de Mahalanobis ya que de acuerdo con el objetivo
planteado cumple con las siguientes propiedades de una medida de disimilaridad:
a. ;(0, 1) > 0 (no negatividad)
b. ;(0, 0) = 0c. ;(0, 1) = 5(1, 0) (simetría)
d. ;(0, 1) <= 5(0, 3) + 5(1, 3) (desigualdad triangular)
e. Es euclidea
f. Es riemanniana
g. Es una divergencia
145
h. Es invariante por transformaciones lineales no singulares de las
variables. En particular es invariante por cambios de escala.
i. Es normalizada, además toma en cuenta las correlaciones entre las
variables
j. Es mayor para dos variables que para una sola, disminuyendo a
medida que aumenta la correlación entre las variables.
Las propiedades que en gran medida justifican el uso de este tipo de disimilaridad es la
referente a la invarianza ante cambios de escala, que es normalizada y toma en cuenta las
correlaciones entre variables. El resto de las disimilaridades evaluadas no consideran todas
o alguna de las propiedades citadas. Para poder tener una magnitud de que tan alejados se
encuentran los datos en cada periodo del caso normal y del nivel de independencia de los
datos (o autosimilaridad) se construyó un gráfico denominado de “disimilaridades” para
ambos parámetros con la medida de disimilaridad de Mahalanobis estimada.
Figura 24. Disimilaridades mensuales (1992-2012)
Fuente: Elaboración propia con base en información del Banco de México.
Disimilaridad
0.000.100.200.300.400.500.600.700.800.901.00
H
0.00 0.10 0.20 0.30 0.40 0.50 0.60 0.70 0.80 0.90 1.00
1992-1
1993-1
1994-1
1995-1
1996-1
1997-1
1998-1
1999-1
2000-1
2001-1
2002-1
2003-1
2004-1
2005-1
2006-1
2007-1
2008-1
2009-1
2010-1
2011-1
2012-1
α
146
Como se puede observar en la figura 24 la disimilaridad entre los parámetros aumenta en
aquellos casos donde hay periodos de alta volatilidad y de crisis. La medida de
disimilaridad se encuentra en una escala de (0 − 1) donde un valor de 0 indica que no hay
diferencias y de 1 que existe la máxima diferencia entre parámetros. El parámetro � alejado
de 2 determina que existe impulsividad en la serie, vemos que en la crisis de 1995 es el
periodo donde la disimilaridad del parámetro de impulsividad del caso normal es más alta,
para el caso del coeficiente de Hurst se presenta un comportamiento similar.
El gráfico de disimilaridades propuesto permite conocer de manera analítica los datos que
se analizan, es una alternativa a la búsqueda de pronósticos exactos que evidentemente son
imposibles de estimar, sobre todo en periodos de crisis. La complejidad de la modelación
de crisis más allá de tratar de explicar sus causas radica en la prospectiva. Una medida de
alerta temprana permite identificar aquellos periodos en que el mercado se comporta
alejado de la teoría convencional y por ello es necesario modificar el análisis por aplicar.
Al analizar las disimilaridades estimadas de manera trimestral (Figura 25), se observa que
el comportamiento es consistente, los parámetros estimados se alejan de los valores teóricos
en los periodos de crisis y alta volatilidad del tipo de cambio. Se observa que en realidad si
existen periodos donde la serie no presenta impulsividad significativa ya que el parámetro
� se acerca a 2, no siendo así con el coeficiente de Hurst ya que en periodos donde no hay
impulsividad si hay presencia de persistencia o antipersistencia.
147
Figura 25. Disimilaridades trimestrales (1992-2012)
Fuente: Elaboración propia con base en información del Banco de México.
Para el caso anual el gráfico de disimilaridades muestra una tendencia similar a las
frecuencias de datos previa, las diferencias entre el parámetro estimado y el parámetro
hipotético de normalidad e independencia se maximizan en los años en que existe alta
volatilidad en la serie, aunque la disimilaridad es diferenciada en magnitud entre ambos
parámetros, es consistente el alejamiento de los valores teóricos de normalidad e
independencia (Ver figura 26).
Disimilaridad
0.000.100.200.300.400.500.600.700.800.901.00
H
0.00 0.10 0.20 0.30 0.40 0.50 0.60 0.70 0.80 0.90 1.00
1992-I
1993-I
1994-I
1995-I
1996-I
1997-I
1998-I
1999-I
2000-I
2001-I
2002-I
2003-I
2004-I
2005-I
2006-I
2007-I
2008-I
2009-I
2010-I
2011-I
2012-I
α
148
Figura 26. Disimilaridades anuales (1992-2011)
Fuente: Elaboración propia con base en información del Banco de México.
Un elemento clave del gráfico de disimilaridades es que aporta una magnitud sobre la que
tan alejados se encuentran los parámetros del caso teórico, esto permite establecer umbrales
y ayuda a la toma de decisiones sobre el análisis financiero por realizar a los datos.
Ejemplo de ello es la valuación de opciones, ya que al asumir normalidad es imposible
impiden capturar las colas pesadas de la distribución, la impulsividad de la serie no se
modela y por ello como se presenta en varios estudios estas valuaciones están muy alejadas
de la realidad (Rodríguez y Ake, 2012).
Con base en las disimilaridades estimadas para cada parámetro se construyó un Índice
Global de Disimilaridad (IGD) mediante escalamiento multidimensional métrico, el índice
toma valores de 0 a 100, expresando así la diferencia entre los parámetros estimados y sus
valores teóricos idóneos para el análisis financiero clásico (normalidad y caminata
aleatoria). Mientras más cercano a 100 el índice indica que la serie se comporta muy
alejada de la teoría y mientras el índice se acerca a 0 los supuestos de normalidad e
independencia se cumplen en mayor medida.
0.000.100.200.300.400.500.600.700.800.901.00
H
0.00 0.10 0.20 0.30 0.40 0.50 0.60 0.70 0.80 0.90 1.00
1992
1993
1994
1995
1996
1997
1998
1999
2000
2001
2002
2003
2004
2005
2006
2007
2008
2009
2010
2011
α
Disimilaridad
149
Figura 27. Índice Global de Disimilaridad mensual (1992-2012)
Fuente: Elaboración propia con base en información del Banco de México.
En la figura 27 se puede observar que los periodos de alta volatilidad en el tipo de cambio
que caracterizaron crisis financieras, las disimilaridades de los parámetros ':� respecto a
los valores idóneos para el análisis financiero clásico (caminata aleatoria ' = 0.5:� = 2)
son mayores. Si tomamos como referencia una diferencia del 5-10% respecto a los valores
teóricos, podemos observar que es una magnitud significativa ya que sobre ese umbral los
valores del índice se disparan y corresponden al inicio de periodos de crisis.
150
Figura 28. Índice Global de Disimilaridad trimestral (1992-2012)
Fuente: Elaboración propia con base en información del Banco de México.
El IGD trimestral (Figura 28) muestra un comportamiento similar al mensual, solo que más
suavizado en las diferencias que representa. Considerando un umbral de tolerancia del 5%
en las diferencias de los parámetros estimados respecto a los valores teóricos (':�) los
valores ubicados de este umbral corresponden con periodos de baja volatilidad del tipo de
cambio. El nivel de tolerancia de la medida de disimilaridad dependerá de los umbrales
establecidos por el analista, en este caso se definió como umbral el 5% de disimilaridad
porque para valores por arriba del índice caracterizan periodos de alta volatilidad del tipo
de cambio y de crisis financieras.
El cálculo del IGD en diferentes frecuencias de tiempo, permite analizar la información de
manera dinámica y mucho más robusta para periodos con mayor número de datos, ya que el
mayor número de datos mejora la estimación de los parámetros utilizados.
151
Es importante previo a cualquier análisis identificar si la serie presenta colas pesadas y
dependencia, este indicador permitirá al analista evaluar que modelos son los más óptimos
para el análisis de los datos, sin tener que forzar el ajuste al caso normal.
En el caso de la estimación del índice de manera anual (Figura 29), el comportamiento
corrobora la identificación de umbrales sobre los cuales el índice se dispara, en este caso se
definió un umbral del 10%. En los años en que se presentó alta volatilidad en el tipo de
cambio por la presencia de crisis financieras el índice se dispara.
Figura 29. Índice Global de Disimilaridad anual (1992-2011)
Fuente: Elaboración propia con base en información del Banco de México.
152
El indicador presentado es una herramienta que provee información sobre el cumplimiento
de los supuestos de normalidad y ruido blanco, con base en esta información se deberá
definir sus rangos de tolerancia de dismilaridad y sus umbrales soportables antes de
modificar las metodologías a utilizar en sus análisis de valuación y administración de
riesgos aplicables.
Aún cuando en este análisis solo se estén considerando dos de los grandes supuestos al
analizar series financieras, son dos supuestos de gran trascendencia que permitirán
determinar el método de análisis óptimo. En el caso de la presencia de auto-similitud en la
serie o dependencia de los datos en el tiempo es posible utilizar el movimiento browniano
fraccional, de igual forma para el caso del supuesto de la ausencia de normalidad es posible
modelar las series considerando el uso de distribuciones α-estables para modelar
correctamente la presencia de colas pesadas.
Este es un primer avance hacia la mejora del modelado de series financieras tomando en
consideración las características de la serie misma, buscando abandonar en la medida de lo
posible los supuestos que nos pueden llevar a conclusiones erróneas, incompletas, y como
lo ha demostrado la evidencia empírica, de poca utilidad en periodos de alta volatilidad.
Como indicadores de alerta temprana el coeficiente de Hurst y el parámetro α muestran
congruencia y utilidad para el análisis financiero ya que proporcionan una medida de
disparidad del mercado respecto a los valores teóricos utilizados generalmente, el poder
cuantificar una magnitud de esta disparidad permitirá establecer umbrales de tolerancia y
realizar cambios en el periodo adecuado a los modelos utilizados, para valuación,
administración de riesgos y análisis de series financieras.
153
4.3 Valuación de opciones de tipo de cambio para series con presencia de colas
pesadas utilizando la distribución α-estable
El ajuste de las distribuciones α-estables es un proceso complejo, sin embargo, las series
financieras se caracterizan por la presencia de alta volatilidad y sucesos externos que
generan valores extremos (improbables para el caso normal), por ello la principal crítica a
la modelación clásica que se hace de estas series es la presencia de colas pesadas y
asimetría, por lo que se justifica el uso de las distribuciones estables. Tradicionalmente se
supone en el tema de valuación de opciones que los rendimientos del activo subyacente
siguen una distribución normal, en esta sección de mostrara los diferenciales que pueden
existir al asumir la veracidad de esta supuesto por mera convención.
Se modela la serie de valores del tipo de cambio de cierre (Fix) del periodo 2008-2009. En
la figura 30 se pueden observar valores atípicos del tipo de cambio para finales de 2008 e
inicios de 2009, meses en que la crisis financiera internacional impactó las variables
económicas en México y el mundo. Por lo que la volatilidad presentada por el tipo de
cambio fue inusual y difícilmente pronosticable. Se consideró dicho periodo por ser el
periodo de crisis más reciente con una serie de datos disponible.
En la figura 31 se presenta el histograma de los rendimientos diarios, el cual muestra una
elevada curtosis (10.6) y cierta asimetría positiva. Por lo anterior, el modelar estos periodos
de crisis utilizando una distribución α-estable permitirá captar movimientos inusuales en las
variables económicas, no siendo así al utilizar una distribución normal que por sus
características intrínsecas descartaría los valores de las colas de la distribución, asumiendo
una probabilidad de ocurrencia nula de estos eventos, que como se ha mencionado se han
observado en la realidad.
154
Figura 30. Rendimientos logarítmicos diarios del Tipo de Cambio,
(2008-2009)
Fuente: Elaboración propia con base en información del Banco de México.
Figura 31. Histograma de los rendimientos diarios del Tipo de
Cambio, (2008-2009)
Fuente: Elaboración propia con base en información del Banco de México.
Por robustez en la aplicación de la valuación de opciones considerando distribuciones
α-estables, se evalúa si los datos no ajustan a la distribución normal como justificación
necesaria para el uso de la distribución α-estable.
-0.08
-0.06
-0.04
-0.02
0
0.02
0.04
0.06
0.08
03
/01
/20
08
03
/02
/20
08
03
/03
/20
08
03
/04
/20
08
03
/05
/20
08
03
/06
/20
08
03
/07
/20
08
03
/08
/20
08
03
/09
/20
08
03
/10
/20
08
03
/11
/20
08
03
/12
/20
08
03
/01
/20
09
03
/02
/20
09
03
/03
/20
09
03
/04
/20
09
03
/05
/20
09
03
/06
/20
09
03
/07
/20
09
03
/08
/20
09
03
/09
/20
09
03
/10
/20
09
03
/11
/20
09
03
/12
/20
09
0
50
100
150
200
250
Fre
cue
nci
a
Clase
ln(37GH�37G)
155
Modelar un fenómeno con una distribución particular únicamente por convención, muy
probablemente generará resultados alejados de la realidad, por ello es necesario trabajar con
aquellas distribuciones de probabilidad que mejor se ajusten a los datos que se están
analizando y no ajustar los datos a distribuciones específicas, generando así sesgos
importantes en los resultados.
Asumir que el comportamiento de los rendimientos del tipo de cambio se distribuye
normalmente implica un supuesto muy grande, ya que como se puede observar en los
gráficos anteriores se denota la presencia de valores extremos, asimetría y colas pesadas.
Ya que las variaciones del tipo de cambio son susceptibles a eventos económicos y
políticos, eventos cuyos efectos son difícilmente pronosticables asumiendo una distribución
normal. En la figura 32 se presenta la gráfica Q-Q, la cual permite diagnosticar
gráficamente la normalidad de una serie de datos. También se realizó la prueba
Kolmogorov-Smirnov para probar si los datos se ajustan a una distribución normal.
Figura 32. Gráfico Q-Q
Fuente: Elaboración propia con base en información del Banco de México.
El gráfico Q-Q denota presencia de colas pesadas ya que para valores extremos de la
distribución no existe ajuste a la distribución normal.
156
El estadístico Kolmogorov-Smirnov presenta un nivel crítico de significancia asintótica
bilateral de (0.000<0.05) por lo que se rechaza H0, rechazamos la hipótesis de normalidad.
De acuerdo a estos resultados es justificable el uso de la distribución α-estable.
Este primer resultado nos indica un elemento muy simple pero de alta trascendencia, esto
es, sería incorrecto utilizar el modelo de valuación de opciones Black Scholes asumiendo
normalidad en la serie ya que la serie presenta colas pesadas. Como alternativa, las
distribuciones α-estables se han adoptado en muchas áreas no solo en la financiera, donde
se trabaja con series de datos con la presencia de asimetría y colas pesadas, para mayores
detalles sobre el uso y características de estas distribuciones en diversas áreas de la ciencia,
véase (Hass y Pigorsh, 2007).
Se trabajó con una distribución α-estable, cuyos parámetros que la caracterizan se
estimaron utilizando una parametrización particular de la función característica de la
distribución α-estable. La parametrización conocida como S�, la cual es generalmente
utilizada para la modelación de datos financieros (Samorodnitsky y Taqqu, 1994).
φ(w) = lnfc(w) = { OPQR|Q|T�HOUVOWX(Q)YZ[,(\]�),
^_X^`VOWX(Q)] a|a|,�VOQ]�
OPQRb|Q|bT�OUVOWX(Q)c�XZbY [,(\d�) (4)
Del ajuste de la serie de rendimientos logarítmicos del tipo de cambio se obtuvieron los
parámetros que caracterizan a la distribución por los tres métodos hasta ahora generalmente
utilizados, que son el método de Máxima Verosimilitud, Método de Cuantiles y el Método
de Regresión (Nolan, 2005). El software utilizado para la estimación de los parámetros es el
programado por Nolan, estable.exe, el cual está disponible de manera gratuita. En el cuadro
5 se presentan los resultados del ajuste por los tres métodos citados.
157
Cuadro 5. Ajuste de los rendimientos logarítmicos del tipo de cambio a la distribución
α-estable
I. Método de Máxima Verosimilitud
α β Γ δ
1.4173 0.2661 0.0042388 0.000949583
II. Método de Cuantiles
α β Γ δ
1.4095 0.2071 0.0042991 0.000285323
III. Método de Regresión
α β Γ δ
1.5328 0.3548 0.0044835 0.000904965
Fuente: Elaboración propia con base en información del Banco de México.
Para poder conocer cuál de los métodos de estimación de los parámetros a utilizar con la
parametrización )� es necesario analizar la bondad del ajuste de la distribución a los datos
empíricos. Por lo cual se realizó la prueba Anderson-Darling para los tres métodos.
Cuadro 6. Prueba de Bondad de Ajuste Anderson-Darling
Método Estadístico fgh = g. ijk
Máxima verosimilitud 0.77614929
Cuantiles 0.72036093
Regresión 1.12349585
Fuente: Elaboración propia con base en información del Banco de México.
Para realizar esta prueba de bondad de ajuste es necesario simular variables α-estables, para
lo cual se utilizó el método presentado por Chambers, Mallow y Stuck (1976). De acuerdo
a la prueba de bondad de ajuste Anderson-Darling al 95% de confianza, los 3 métodos
pueden no ser rechazados, esto es que los datos se distribuyen α-estable.
158
Sin embargo es el método de regresión (MR) el que estima los parámetros que mejor
ajustan las colas de la distribución de la serie. Se puede observar en la figura 33, donde se
presentan los logaritmos de los valores de la función de Distribución acumulada (DA)
simulada para los tres métodos respecto a los valores empíricos (EMP), para tener una
mejor apreciación del ajuste de las colas de la distribución.
Figura 33. Ajuste de las colas de la distribución
Fuente: Elaboración propia con base en información del Banco de México.
En la figura 34 se presenta el ajuste de la función de distribución acumulada, donde la línea
continua es la distribución empírica y el resto son las distribuciones simuladas para los tres
métodos de cálculo de los parámetros de la distribución α-estable.
-3
-3
-2
-2
-1
-1
0
-3-2-2-1-10
MV
MQ
EMP
MR
Log (DA(MV, MQ, MR))
Log (DA(EMP))
159
Figura 34. Ajuste de la función de distribución acumulada
Fuente: Elaboración propia con base en información del Banco de México.
De acuerdo a lo anterior, la parametrización a utilizar es la )� y los parámetros de la
distribución se estiman mediante el método de regresión, aún cuando los tres métodos
pudieran ser utilizados de acuerdo a la prueba Anderson-Darling, gráficamente el método
de regresión es el que muestra mejor ajuste. A continuación, se presenta la valuación de una
opción de compra y una opción de venta utilizando las formulas de valuación Black-
Scholes con distribución normal y con distribución α-estable para un activo que paga
dividendos presentadas en el capítulo IV, los datos utilizados para la valuación son los
siguientes:
• Subyacente: Tipo de cambio peso-dólar de cierre (Fix) en un rango de [1, 25]
• K: precio de ejercicio 13 pesos
• r : Tasa de interés doméstica del 4.0% (Cetes)
• d: Tasa externa en dólares 0.05% (Ya que se considera una opción sobre tipo de
cambio, implica una tasa de dividendos para el subyacente)
• t: 3 meses
• σ: Para el modelo Black-Scholes con distribución normal se utiliza la volatilidad
anual (23.26481%)
• Opciones de compra y de venta en posición larga
0.0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1.0
0.0 0.2 0.4 0.6 0.8 1.0
MV
MQ
MR
EMP
DA(X)
(X)
160
Utilizando la parametrización encontrada para los rendimientos del tipo de cambio diario en
el período 2008-2009 y las fórmulas de valuación con distribuciones α-estables presentadas
para una opción con pago de dividendos, se obtuvieron los siguientes resultados.
C(St,t)=)G.noΦqrs t5; �, −u, vwxy, 0z − {.soΦqrs t−5; �, u, vw
xy, 0z. (5)
|()G, 3) = {.soΦqrs t−5; �, u, vwxy, 0z − )Ge~�Φqrs t5; �, −u, vw
xy, 0z, (6)
donde, (5) está dado por:
5 = ln t���z + (/ − � − uv� sec �)w, (7)
y � = ��# .
Los precios obtenidos con la valuación α-estable son superiores a los precios obtenidos con
la distribución normal en el rango donde la opción está en una posición “dentro del
dinero”, y los precios α-estables son inferiores cuando la opción está “en el dinero” (Ver
figura 34 y 35). Debido a que en el caso de la función de densidad normal la masa de
probabilidad se acumula en los valores cercanos al precio de ejercicio no siendo así en el
caso α-estable que tienen mayor masa en las colas de la distribución. Estos resultados son
congruentes de acuerdo con los resultados presentados por Contreras-Piedragil y Venegas-
Martínez (2011) y a los resultados presentados por Cartea y Howison (2009).
El caso en que la opción está “fuera del dinero” no se observan diferencias ya que la
opción en dichos rangos para el subyacente analizado vale cero en ambos casos. Ya que los
parámetros de la distribución denotan un grado de impulsividad (� = 1.5328) existe la
presencia de colas pesadas y asimetría positiva u = 0.3548. El efecto de la asimetría
genera un traslado de la masa de probabilidad a la izquierda. Lo cual impacta en mayores
diferencias en el rango en que la opción está “en el dinero”.
161
Es necesario recalcar que se modeló un periodo de crisis (2008-2009) intencionalmente
para el ajuste de la distribución α-estable, por lo que los diferenciales en precios no
deberían sorprendernos, dada la volatilidad que presentó el tipo de cambio en el período de
estudio. Lo que se busca demostrar es el margen de error que puede generar utilizar una
distribución incorrecta para la valuación de opciones para una serie y periodo específico,
sobre todo en periodos de alta volatilidad.
Por otro lado, el parámetro γ por su parte en el caso estandarizado sería el símil a la
volatilidad, sin embargo, dicho parámetro se encuentra asociado a los parámetros α y β de
la distribución, y su efecto se ve reflejado directamente en precios, mientas mayor sea γ
mayores serán los precios estables.
Figura 35. Valuación opción de compra: normal vs α-estable
Fuente: Elaboración propia.
Las diferencias en los precios de las opciones de compra entre ambos modelos muestran la
información no capturada por el uso de la distribución normal en periodos donde
evidentemente el comportamiento de la serie está alejado de la normalidad (Figura 35).
0
5
10
15
20
25
0 5 10 15 20 25
Black-Scholes (Normal) Black-Scholes (alfa estable)
Prima
Subyacente
K=13
162
El utilizar distribuciones α-estables en estos casos permitirá tener valuaciones más exactas
y con ello mayores márgenes de negociación en el mercado, en este caso particular el
negociar un precio subvaluado implica mayores riesgos asumidos por el vendedor de la
opción al utilizar la distribución normal per se a que los rendimientos del subyacente no se
distribuyen normalmente.
En el caso de la opción de venta se observan los mismos resultados. La valuación α-estable,
muestra precios superiores a la valuación con una distribución normal en el rango en que la
opción se encuentra “dentro del dinero” y los diferenciales de precios van disminuyendo
conforme la opción se acerca a una posición “en el dinero” (Ver figura 36). Dichos
diferenciales son altamente relevantes con miras a decisiones de inversión y cobertura de
riesgos.
Figura 36. Valuación opción de venta: normal vs α-estable
Fuente: Elaboración propia.
El parámetro α de la distribución define el grado de impulsividad, lo cual denota el nivel
de curtosis y la pesadez de las colas de la distribución. Por lo anterior, conforme el valor de
�se aleja de � = 2 (el caso normal) los diferenciales en los precios aumentan.
0
2
4
6
8
10
12
14
0 5 10 15 20 25
Black-Scholes (Normal) Black-Scholes (alfa estable)
Subyacente K=13
Prima
163
Es por ello que utilizar modelos de valuación y análisis de riesgos con el supuesto de
normalidad en aquellas series que presenten un parámetro α alejado de dos, implica obtener
resultados alejados de la realidad.
4.3.1 Medidas de sensibilidad de la opción de compra
Uno de los usos potenciales de utilizar la distribución α-estable para valuación y análisis de
riesgos, radica en la elaboración de coberturas eficientes a través del análisis de las medidas
de sensibilidad del precio de una opción. En la figura 37 se presenta el comportamiento de
la Delta y Gama para la opción de compra con ambos modelos de valuación.
Figura 37. Delta y Gama, normal vs α-estable
∆ (a) γ (b)
Fuente: Elaboración propia.
En caso de las distribuciones estables la delta se aproxima a cero cuando la opción está
“fuera del dinero” y se acelera a uno cuando está “dentro del dinero”, siendo la
sensibilidad estable mayor en el rango en que la opción está “fuera del dinero” y menor en
el rango en que la opción está “dentro del dinero”. Para los casos de distribuciones
asimétricas el efecto de la asimetría impacta en adelantar el proceso de evolución de la
delta.
0.0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1.0
1 4 7 10 13 16 19 22 25
Alfa-estable Normal
0.0
0.0
0.0
0.0
0.0
0.1
0.1
0.1
0.1
0.1
0.1
1 4 7 10 13 16 19 22 25
Alfa-estable Normal
164
La velocidad de este cambio la podemos observar en la gama ya que la sensibilidad es
mayor para la distribución α-estable y se incrementa conforme la opción está “dentro del
dinero”.
Figura 38. Rho, normal vs α-estable
Fuente: Elaboración propia.
La sensibilidad de la opción respecto a la tasa de interés (Figura 38) muestra que el efecto
de la tasa de interés impacta en mayor medida a las opciones valuadas con la distribución
normal respecto a las α-estables en el rangos en que la opción está “dentro del dinero”,
ocurriendo el efecto contrario cuando la opción se encuentra “fuera del dinero”. Para el
caso de las opciones de venta el comportamiento de las diferencias ente las medidas de
sensibilidad calculadas presenta la misma tendencia que en el caso de las opciones de
compra.
4.3.2 La cobertura Delta con distribuciones α-estables
La delta de una opción constituye el componente fundamental en el análisis de riesgo de un
portafolio dado que proporciona el número de unidades del activo subyacente necesario
para cubrir la opción. De esta manera, si se tiene una posición corta (de venta), en un
derivado, ésta se puede cubrir a través de una posición larga (de compra) con Δ unidades
del subyacente, y viceversa.
0.0
0.5
1.0
1.5
2.0
2.5
3.0
3.5
1 4 7 10 13 16 19 22 25
Alfa-estable Normal
165
El tener una posición cubierta significa tener un portafolio libre de riesgo, al menos de
forma local. En este caso realizar coberturas delta es significativo debido a las diferencias
de los valores de la distribución normal y α-estable. La cobertura delta recoge el número de
unidades del activo subyacente que se deben mantener por cada opción emitida para crear
una cartera sin riesgo, es decir, comprar una opción de compra con un delta de 0,5 equivale,
en cuanto a sensibilidad a las variaciones en el precio, a la compra de 0,5 unidades del
activo subyacente. El signo de la delta puede ser positivo o negativo, en función del tipo de
activo.
Para el caso de la opción que se está evaluando, es posible ver que las deltas calculadas
presentan diferencias respecto a las calculadas por el modelo Black-Scholes que asume una
distribución normal lo que implicaría que al realizar la cobertura delta utilizando los
parámetros estimados por la valuación α-estable optimizaría el uso de recursos.
4.3.3 Volatilidad Implícita
De acuerdo con las valuaciones estimadas se obtuvieron diferenciales de precios entre
ambos modelos. Tomando como referencia el precio α-estable y se estimó con el modelo de
valuación Black-Scholes la volatilidad implícita mediante el algoritmo Newton-Raphson,
obteniendo las volatilidades del modelo Black-Scholes (normal) que serían necesarias para
calcular el precio de mercado dado (α-estable).
Al graficar la volatilidad implícita estimada respecto a diferentes precios de ejercicio ({) se obtuvo la sonrisa de volatilidad para las opciones de tipo de cambio, donde la volatilidad
es relativamente baja para opciones en el dinero y resulta progresivamente más elevada a
medida que una opción se mueve tanto dentro como fuera del dinero (Ver figura 39).
166
Figura 39. Sonrisa de volatilidad
Fuente: Elaboración propia.
4.3.4 El parámetro α y la volatilidad implícita
Si se consideran diferentes niveles de estabilidad o impulsividad de la distribución (α) y se
obtiene la volatilidad implícita de la opción respecto a diferentes precios de ejercicio,
suponiendo que los valores estimados de la prima con el modelo α-estable son los precios
de mercado, en la figura 40 se puede observar la relación entre la volatilidad implícita
respecto a la impulsividad de la distribución.
Figura 40. El efecto del parámetro α en la volatilidad implícita
Fuente: Elaboración propia.
Volatilidad implícita
Precio de ejercicio
Volatilidad implícita
Precio de ejercicio
167
Se observa que la volatilidad implícita para determinados precios de ejercicio va
aumentando conforme el parámetro α se aleja del caso normal (� = 2). En otras palabras,
la volatilidad implícita de las opciones cuyo subyacente presenta un parámetro de
estabilidad α cercano a � = 2 (caso normal), es menor que la volatilidad implícita de una
opción sobre un subyacente con un parámetro α alejado del valor normal.
Una función importante de la volatilidad implícita es que permite captar la expectativa del
mercado, en este caso, se tomó como referencia la valuación α-estable, con lo que se
obtuvo la volatilidad implícita la cual asumiría el papel de la expectativa no capturada en el
modelo normal.
168
CONCLUSIONES Y RECOMENDACIONES
La dinámica actual del sistema económico mundial ha presentado una serie de reformas en
su estructura de pensamiento económico y político. La evolución social y económica ha
determinado un mundo interconectado esencialmente por sus relaciones económicas. A
través de la revisión de las crisis ocurridas en las últimas tres décadas la primera parte de
ellas en países en desarrollo y las más recientes en países desarrollados, detonan el debate
teórico y político sobre la reestructuración de una nueva arquitectura financiera
internacional, ya que la actual estructura parece incapaz de resolver la generación e impacto
de las crisis así como la procuración del desarrollo.
Surge también la necesidad de definir una nueva agenda de investigación de los ciclos y las
crisis a la luz de la realidad económica actual, dentro de las recientes líneas de
investigación en macroeconomía se ha desarrollado la validación de las teorías existentes a
través de la utilización de herramientas matemáticas cada vez más sofisticadas. Quizá el
paso necesario hoy es transitar hacia nuevos planteamientos tomando como base el
desarrollo teórico actual y la sofisticación matemática que acompaña al desarrollo de la
teoría económica.
El estudio de crisis financieras es un tema complejo, a lo largo de la vida del capitalismo ha
sido un tema de gran interés para la comunidad académica. Se han generado variedad de
modelos intentando en primera instancia determinar cuáles son las causas que generan una
crisis y posteriormente se buscaba explorar mecanismos que pudieran pronosticar episodios
de crisis con antelación para minimizar sus efectos. La evolución de las relaciones
económicas y del sistema financiero internacional llevaron las investigaciones hacia el
análisis empírico de datos como una herramienta para la toma de decisiones. Como parte de
estos modelos se generan los indicadores de alerta temprana, que buscan aportar elementos
de análisis donde el sistema económico presenta evidencia de inestabilidad.
169
Los resultados obtenidos en esta investigación indican que el análisis realizado actualmente
para las series financieras, parte de supuestos que no siempre se cumplen y esto a su vez
genera conclusiones que pueden no ser válidas o ser de poca utilidad para la toma de
decisiones. Los modelos tradicionalmente utilizados para este análisis han sido de utilidad
para el pronóstico, en forma adecuada, del comportamiento futuro en épocas de baja
volatilidad, pero en tiempos de crisis han mostrado su inoperancia, debido a que no se
tienen en cuenta los eventos poco probables ni la dependencia de la serie en el tiempo. La
teoría fractal incorpora a los análisis estos cambios y la utilización de la distribución
α-estable permite capturar la impulsividad de una serie, esto aporta mayor validez al
análisis realizado al poder tener un mayor acercamiento a la realidad imperante.
La evidencia empírica analizada, muestra la presencia de persistencia y anti-persistencia en
diferentes periodos del horizonte de tiempo en la serie de tipo de cambio peso-dólar, de
igual forma se aleja de la distribución normal ya que presenta impulsividad en los datos,
esto nos indica que es necesario realizar análisis previos al estudio y utilización de las
series financieras, ya que partir de un dogma absoluto generará conclusiones alejadas de la
realidad.
Es necesario identificar las características esenciales de cada serie y con ello definir cuál es
la metodología y la herramienta óptima de análisis, sin tratar de encajar la realidad en un
paradigma definido para el estudio de las crisis financieras y en general de las finanzas.
Este es un primer avance hacia la mejora del modelado de series financieras y el análisis de
crisis tomando en consideración las características de la serie misma, buscando abandonar
en la medida de lo posible los supuestos que nos pueden llevar a conclusiones erróneas,
incompletas, y como lo ha demostrado la evidencia empírica, de poca utilidad en periodos
de alta volatilidad.
170
La estimación del coeficiente de Hurst y del parámetro α de la distribución α-estable y la
posterior cuantificación de la disimilaridad entre los valores de los parámetros estudiados
respecto a los valores teóricos permite determinar umbrales de tolerancia, sobre todo
cuando se observa que valores alejados más del 10% del valor teórico se presentan en
periodos de crisis claramente identificados en la serie histórica.
A través del Índice Global de Disimilaridad definido, es posible contar con un indicador
eficiente que permite identificar el momento en que los mercados se alejan demasiado de
los supuestos tradicionales de valuación y gestión de riesgos, lo cual permitirá ajustar los
modelos utilizados y tener información más apegada a la realidad para la toma de
decisiones. Un elemento que pudiera parecer trivial pero que tiene un efecto multiplicador
al modelar correctamente las series en un momento en el tiempo. Ejemplo de ello son los
diferenciales encontrados en la valuación de opciones de tipo de cambio al utilizar la
distribución normal y α-estable para el modelaje de los rendimientos, así como la relación
entre volatilidad implícita y el parámetro α, donde ante valores alejados del caso normal de
dicho parámetro la volatilidad implícita en el precio de la opción es mayor asumiendo una
distribución normal.
El índice propuesto como medida de alerta temprana, permite caracterizar los periodos de
crisis presentando una mayor magnitud en aquellos episodios de alta volatilidad, al
observar el índice en mayor frecuencia (trimestral y mensual) se observa que describe
correctamente la presencia de crisis en su evolución en el tiempo. Se propone la utilización
de este indicador como una medida de alerta temprana y como un paso previo al análisis
financiero tradicional.
171
La presente investigación es un primer avance hacia un análisis parsimonioso de las series
financieras y la identificación de periodos de crisis, con ello es posible construir modelos
que tomen en cuenta los dos elementos aquí analizados, y potenciar los resultados
obtenidos, siempre buscando acercarse lo más posible a la realidad. El potencial de
investigación futuro versa en dos ejes esenciales, por una parte proveer de información de
mayor calidad para la modelación financiera, y en segundo lugar una vez identificada la
presencia de crisis definir modelos de política económica que permitan contrastar los
efectos o minimizar su impacto.
El análisis fractal y los modelos de colas pesadas, aún tienen mucho por aportar a la
investigación económica, la innovación de valuaciones específicas, el análisis de riesgos y
de portafolios óptimos son algunas de las líneas de investigación que pudieran desarrollarse
incorporando estas herramientas. La integración del análisis espectral a series de datos en
conjunto con el coeficiente de Hurst y las distribuciones α-estables también representa una
interesante área por desarrollar.
En referencia al análisis global de las crisis, se identifica un potencial de desarrollo de la
teoría macroeconómica y en especial retomar el estudio de los ciclos y las crisis desde una
perspectiva actual, se considera como un área de oportunidad que debe de abordarse por la
comunidad académica a nivel mundial. Es claro que no existen paradigmas absolutos y que
el pensamiento económico debe evolucionar para poder explicar la dinámica capitalista
actual, tal como lo ha hecho a lo largo del tiempo. Por ello, el estudio de los ciclos
económicos, las crisis, la integración económica, la globalización, el papel de los mercados
financieros, la modelación matemática aplicada, y la geopolítica se sugieren como líneas de
investigación prioritarias que no deben dejarse de lado.
172
REFERENCIAS BILIOGRÁFICAS
Ambrose B, Weinstock E, y Griffiths M. (1993). Fractal Structure in the Capital Markets
Revisited. Financial Analysts Journal, 73-77.
Andrés, A. S. (2011). La economía rusa en la crisis mundial: Una valoración de la etapa
Medvédev. Russia's economy in the global crisis: An assessment of the Medvedev
era. Revista CIDOB d’afers internacionals, 96, 45-61.
Ángeles, G. (2010). The 2009 Economic Crisis: A Comparative Analysis With the
Financial Crisis of 1994-1995. Metapolítica, 12(69), 58-66.
Anis A. y Lloyd E. (1976). The expected values of the adjusted rescaled Hurst range of
independent normal summand. Biometrika, 63, 111-116.
Bachelier, L. (1964). Theory of Speculation. Translation fron the French edition. P.H.
Cootner, ed. in The Random Character of Stock Market Prices. Cambridge: MIT
Press.
Bensaid, B. y Jeanne O. (1996). Fragilite des systemes de change fixe et controle des
capitaux. Economie et Prevision, Programme National Persee, 123(2), 163-174.
Black, F. y Sholes, M. (1973). The Pricing of Options and Corporate Liabilities. Journal of
Political Economy, 81, 637-654.
Blanco Cruz, L. A. (2002). Caracterización de la crisis Argentina. Revista de Economía
Institucional, 4(7), 209-214.
Brock, W. (1986). Distinguishing Random and Deterministic Systems: Abridged Version.
Journal of Economic Theory, 40.
Bustelo, P. (2004). Las crisis financieras en Asia y Argentina. Información Comercial
Española. Revista de Economía.
Cartera, A. y Howison, S. (2009). Option Pricing with Lévy-Stable Processes Generated by
Lévy-Stable Integrated Variance. Quantitative Finance, 9 (4), 397-409.
Castro Formento, M. (2000). Ideas para una nueva arquitectura financiera internacional.
Economía y Desarrollo, 126(1), 136-151.
Chambers, J.M., Mallow,s C.L. and Stuck, B.W. (1976). A Method for Simulating Stable
Random Variables. JASA, 71 (354), 340-344.
173
CONEVAL (2012). Medición de Pobreza en México y en las Entidades Federativas 2012.
México: CONEVAL.
Contreras, C. y Venegas, F. (2011). Valuación de opciones sobre activos subyacentes con
distribuciones estables. Estocástica, l (1), 55-71.
Contreras, C. (2010). Valuación de opciones con distribuciones alpha estables, México.
Mención especial Premio Nacional de Derivados 2010. Disponible en:
http://www.mexder.com.mx/inter/info/mexder/avisos/
Cuadras C. (1989). Distancias Estadísticas. Estadística Española, 30 (119).
Cruz, M., & Lapa, J. (2012). Crisis y recuperación económica: el papel de la política fiscal.
Revista Problemas del Desarrollo, 43(168), 95-116.
Dabat, A. (2009). La crisis financiera en Estados Unidos y sus consecuencias
internacionales. Problemas del Desarrollo. Revista Latinoamericana de Economía,
40(157), 39-74.
Delgado Selley, O. (2011). La hipótesis de la inestabilidad financiera y la crisis de 2007-
2009. Economía: teoría y práctica, 9-41.
Domínguez, Ardila y Moreno, (2010). Metodología e interpretación del coeficiente de
Hurst. Universidad Externado de Colombia. Disponible en:
http://redalyc.uaemex.mx/redalyc/pdf/532/53220677008.pdf
Dornbusch, R., Goldfajn, I., and Valdés, R. (1995). Balance of Payments Crises and Capital
Flows: The Role of Liquidity. Disponible en:
http://www.bcentral.cl/eng/studies/working-papers/011.htm
Féliz, M. (2009). Crisis cambiaria en Argentina. Problemas del Desarrollo. Revista
Latinoamericana de Economía, 40(158), 185-213.
Flood, R., Garber, P y Kramer, C. (1996). Collapsing Exchange Rate Regimes: Another
Linear Example. Journal of International Economics, 41, 223-234.
Flood, R. and Garber, P. (1984). Collapsing exchange rate regimes: Some linear examples.
Journal of International Economics, 17, 1-13.
Flood, R. and Marion N. (1997). Policy Implications of Second Generation Crisis Models.
International Monetary Fund. Working Papers.
Frankel, J. and Rose, A. (1996). Currency Crashes in Emerging Markets: An Empirical
Treatment. Journal of International Economics, 41, 351-366.
174
Gerlach, S. and Smets, F. (1995. Contagious Speculative Attacks. European Journal of
Political Economy, 11, 45-63.
Guillén Romo, H. (2011). Integración monetaria, crisis y austeridad en Europa. Revista
Problemas del Desarrollo, 42(165), 113-140.
Guimaraes B. (2007). International Finance Crisis. Inglaterra: LSE.
Guzmán, G. R., & García, C. M. (2010). La unión europea en crisis: 2008-2009. Problemas
del Desarrollo. Revista Latinoamericana de Economía, 41(161), 13-39.
Haas M. y Pigorsch, C. (2007). Financial Economics, Fat-tailed Distributions, Documento
de trabajo. Disponible en: http://ect-pigorsch.ect.uni-bonn.de
Hair, J., Anderson, R. y Tatham, R. (2011). Análisis multivariante. España: Prentice Hall.
Hastings, H. and Sugihara, G. (1993). Fractals, a user’s guide for the natural sciences.
Oxford: Oxford University Press.
Holtsmark, J. (1919). Uber die Verbreiterung von Spektrallinien. Annalen der Physik, 363
(7), 577–630.
Hull, J. (2002). Introducción a los mercados de futuros y opciones. España: Pearson,
Prentice Hall.
Hurst, H.E. (1951). The long term storage capacity of reservoirs. Transactions of the
American Society of Civil Enginiers, 1116, 770-808.
J.P. Morgan, (1998). Event Risk Indicator Handbook. London: J.P. Morgan Exchange
Research Ltd..
Jeanne, O. (2000). Currency Crises: A perspective on Recent Theoretical Developments.
Special Papers in International Economics, 20.
Juárez Sánchez I. (2011). Una interpretación sobre el bajo crecimiento económico en
México. Estudios Regionales en Economía, Población y Desarrollo, 1 (1), 1-32.
Kabašinskas, A.; Rachev, S.; Sakalauskas, L.; Sun, W.; Belovas, I. (2009). Alpha-stable
paradigm in financial markets, Journal of Computational Analysis and Applications,
11, 641–668.
Kaminsky, G.L., Lizondo, S. and Reinhart, C.M. (1998). Leading Indicators of Currency
Crises. Staff Papers, International Monetary Fund, 45 (1).
Keynes, John Maynard (2003). Teoría general de la ocupación, el interés y el dinero.
México: Fondo de Cultura Económica.
175
Kolmogorov, A. (1956). Foundations of Probability Theory. New York: Chelsea
Publishing Company.
Krugman, Paul. (1979). A Model of Balance of Payments Crises. Journal of Money, Credit
and Banking, 11, 311-325.
Krugman, P. y Rotemberg, J. (1991). Speculative Attacks on Target Zones, en Krugman
and Miller (eds.). Target Zones and Currency Bands. Oxford: Oxford University
Press.
Krugman, P. (1999). Balance sheets, the transfer problem, and financial crises.
International Tax and Public Finance, Springer, 6(4), 459-472.
Lance, G. y Williams, W. (1966). Computer programs for hierarchical polythetic
classification ("similarity analysis"). Computer Journal, 9(1), 60–64.
León, J. L. (2008). La mano invisible del mercado y la evolución de las políticas monetaria
y cambiaria: México, 1995-2005. Análisis Económico, 23(53), 111-142.
Linares, G. (2001). Escalamiento multidimensional: Conceptos y enfoques. Revista
Investigación Operacional, 22 (2).
Lindgren C. (1999). Financial Sector Crisis and Restructuring: Lessons from Asia. Fondo
Washington DC: Monetario Internacional.
Lo, A.W. (1991). Long-Term Memory in Stock Markets Prices. Econometrica, 59, 1.279-
1.313.
López F., Villagómez J. y Venegas-Martínez F. (2009). Dependencia de largo plazo en
rendimientos y volatilidades de acciones mexicanas. Tiempo Económico, 4 (13).
Markowitz, H. (1959). Portfolio selection: Efficient diversification of investments. New
York: John Wiley & Sons.
Marx, Karl (1998). El capital. Crítica de la Economía Política. México: Fondo de Cultura
Económica.
MacDonald R. y Power D.M. (1993). Persistence in UK Share Returns: Some evidence
from disaggregated data. Applied Financial Economics, 3, 27-38.
Mahalanobis, P. (1936). On the generalised distance in statistics. Proceedings of the
National Institute of Sciences of India, 2 (1), 49–55.
Mandelbrot, B. and Ness, V. (1968). Fractional Brownian Motions, Fractional Noises and
Applications, S IA M review 1 0, 11(3).
176
Mandelbrot, Benoit B. (1997). Fractals and Scaling in Finance. EUA: Springer.
McKinnon, R.I. (1963). Optimum Currency Areas. The American Economic Review, 53(4).
Mills T.C. (1993). I there Long-Term Memory in UK Stock Returns. Applied Financial
Economics, 3, 303-306.
Minkowski, Hermann (1967). Gesammelte Abhandlungen 2. Leipzig-Berlin: R. G.
Teubner. Reprinted in one volume New Yor: Chelsea.
Minsky, Hyman P. (1992). The Financial Instability Hypotesis. Working Paper No. 74.
Mundell, R.A. (1961). A Theory of Optimum Currency Areas. The American Economic
Review, 51 (4).
Newey, W. and West, K. (1987). A Simple, Positive Semi-definite, Heteroskedasticity and
Autocorrelation Consistent Covariance Matrix. Econometrica, 55(3).
Nolan, J.P. (1999). Fitting Data and Assessing Goodness-of-fit with Stable Distributions.
Department of Mathematics and Statistics, American University. Disponible en:
http://academic2.american.edu/~jpnolan/
Nolan, J. P. (2003). Modeling Financial distributions with stable distributions. Volume 1
of Handbooks in Finance. Amsterdam: Elsevier.
Nolan, J.P. (2005). Modeling financial data with stable distributions. Department of
Mathematics and Statistics, American University. Disponible en:
http://academic2.american.edu/~jpnolan/
Nolan, J.P. (2009). Stable Distributions: Models for heavy tailed data. Department of
Mathematics and Statistics, American University. Disponible en:
http://academic2.american.edu/~jpnolan
OCDE. (2010). Perspectivas OCDE: México. Políticas clave para un desarrollo sostenible.
OCDE.
Obstfeld, M. (1994). The Logic of Currency Crises. National Bureau of Economic
Research,Working Paper No. 4640.
Obstfeld, M. (1996). Models of Currency Crises with Self-fulfilling features. European
Economic Review, 40, 1037-1047.
Peters E. (1992). R/S Analysis Using Logarithmic Returns. Financial Analysts Journal, 81-
82.
177
Rapoport, M., & Brenta, N. (2010). La crisis económica mundial: ¿El desenlace de cuarenta
años de inestabilidad? Problemas del Desarrollo. Revista Latinoamericana de
Economía, 41(163), 7-30.
Rangel, E., & Ivanova, A. (2003). The mexican crisis: lessons for education, employment
and entrepreneuship. Aportes: Revista Mexicana de Estudios Sobre la Cuenca del
Pacifico, 3(6), 49-74.
Rodríguez, R. y Ake, S. (2013). Valuación de opciones de tipo de cambio asumiendo
distribuciones α-estables. Contaduría y Administración, Facultad de Contaduría y
Administración, Universidad Nacional Autónoma de México, 58 (3).
Rosende, F. (2009). La macroeconomía y la crisis: ¿La crisis de la macroeconomía?
Cuadernos de Economía, 46(134), 161-182.
Saínz, P., & Calcagno, A. (1999). La economía brasileña ante el Plan Real y su crisis.
Santiago de Chile: ONU/CEPAL.
Salazar, M. P. (2008). El origen del pánico de 2008: La crisis del mercado de crédito
hipotecario en Estados Unidos, Revista de Economía Institucional, 10, 19-54.
Samuelson, P. (1965). Rational Theory of Warrant Prices. Industrial Management Review,
6(2), 13-39.
Samorodnitsky, G. and Taqqu, M. (1994). Stable Non-Gaussian Random Processes:
Stochastic models with infinite variance. New York: Chapman and Hall.
Sánchez Pozo, J. A. (2008). Descripción de la crisis financiera Asiática y Rusa.
Identificación de los factores que explican los movimientos de flujos de capitales de
corto plazo. La experiencia peruana 2000-2008. Perú.
Sierra, J. Guillermo. (2007). Proceso Hurst y movimiento browniano fraccional en
mercados fractales: valuación y aplicaciones a los derivados y finanzas, Instituto
Tecnológico de Estudios Superiores de Monterrey. Disponible en:
http://www.mexder.com.mx/inter/info/mexder/avisos/ProcesosHurstyMovimientBro
wnianoFraccionalMercadosFractales.pdf
Tokatlian, J. G. (2012). Crisis y redistribución del poder mundial. Revista CIDOB d’ Afers
Internacionals, 100, 25-41.
Venegas, F. (2008). Riesgos financieros y económicos: productos derivados y decisiones
económicas bajo incertidumbre. México: Thomson.
178
Fuentes de datos
www.banxico.org.mx
www.mexder.com.mx
www.bancomundial.org
179
ANEXOS
A. Resultados de la valuación α-estable y normal
Opción de compra Opción de venta
Subyacente Precio Normal Precio α-estable Precio Normal Precio α-estable
1.000000 0.00000000 0.00000000 11.8620881 12.8076482
2.000000 0.00000000 0.00000000 10.8622131 12.7661869
3.000000 0.00000000 0.00000000 9.8623381 12.7108974
4.000000 0.00000000 0.00000000 8.8624631 12.6330542
5.000000 0.00000000 0.00000000 7.8625880 12.5191682
6.000000 0.00000000 0.00000000 6.8627130 12.3457371
7.000000 0.00000002 0.00000000 5.8628380 12.0697541
8.000000 0.00000581 0.00000000 4.8629688 11.6120312
9.000000 0.00037144 0.00000000 3.8634595 10.8355189
10.000000 0.00711310 0.00000000 2.8703261 9.5390435
11.000000 0.05707979 0.00000000 1.9204178 7.5091250
12.000000 0.24454971 0.00000000 1.1080127 4.6475971
13.000000* 0.67037482 0.00000000 0.5339628 1.0961245
14.000000 1.34879029 2.77353071 0.2125033 0.0000000
15.000000 2.20642907 6.52372674 0.0702670 0.0000000
16.000000 3.15565391 9.83730399 0.0196169 0.0000000
17.000000 4.14062883 12.59511404 0.0047168 0.0000000
18.000000 5.13678383 14.83616279 0.0009968 0.0000000
19.000000 6.13585073 16.67336041 0.0001887 0.0000000
20.000000 7.13556960 18.22711160 0.0000325 0.0000000
21.000000 8.13541727 19.59423125 0.0000052 0.0000000
22.000000 9.13528786 20.84222957 0.0000008 0.0000000
23.000000 10.13516221 22.01465271 0.0000001 0.0000000
24.000000 11.13503712 23.13854189 0.0000000 0.0000000
25.000000 12.13491211 24.23051243 0.0000000 0.0000000
*Precio de ejercicio.
180
B. Griegas estimadas para la Opción de compra
Valuación α-estable Valuación Normal
Subyacente Delta Gama Rho Delta Gama Rho
1 0.003889 0.003889 0.012607 0.000000 0.000000 0.000000
2 0.006381 0.003191 0.020753 0.000000 0.000000 0.000000
3 0.009411 0.003137 0.030708 0.000000 0.000000 0.000000
4 0.013385 0.003346 0.043842 0.000000 0.000000 0.000000
5 0.018873 0.003775 0.062107 0.000000 0.000000 0.000000
6 0.026831 0.004472 0.088810 0.000000 0.000000 0.000000
7 0.038954 0.005565 0.129884 0.000000 0.000000 0.000000
8 0.058266 0.007283 0.195951 0.000028 0.000002 0.000056
9 0.089795 0.009977 0.304573 0.001296 0.000065 0.002823
10 0.140507 0.014051 0.479463 0.017574 0.000796 0.042156
11 0.217003 0.019728 0.741451 0.098991 0.004077 0.257955
12 0.320704 0.026725 1.091479 0.294822 0.011132 0.823330
13 0.443873 0.034144 1.498873 0.559097 0.019486 1.649471
14 0.571122 0.040794 1.909946 0.783950 0.025371 2.406629
15 0.686275 0.045752 2.272890 0.915946 0.027667 2.883189
16 0.779071 0.048692 2.558532 0.973313 0.027562 3.104340
17 0.847168 0.049833 2.763805 0.992832 0.026461 3.184380
18 0.893853 0.049658 2.902194 0.998268 0.025128 3.208009
19 0.924560 0.048661 2.992169 0.999552 0.023836 3.213908
20 0.944440 0.047222 3.050067 0.999816 0.022650 3.215190
21 0.957391 0.045590 3.087747 0.999865 0.021573 3.215439
22 0.966021 0.043910 3.112935 0.999874 0.020592 3.215482
23 0.971962 0.042259 3.130373 0.999875 0.019697 3.215489
24 0.976203 0.040675 3.142906 0.999875 0.018876 3.215491
25 0.979341 0.039174 3.152240 0.999875 0.018121 3.215491
181
C. Griegas estimadas para la Opción de Venta
Valuación α-estable Valuación Normal
Si Delta Gama Rho Delta Gama Rho
1 -0.996111 0.003889 -3.202884 -0.999875 0.000000 -3.215491
2 -0.993619 0.003191 -3.194737 -0.999875 0.000000 -3.215491
3 -0.990589 0.003137 -3.184783 -0.999875 0.000000 -3.215491
4 -0.986615 0.003346 -3.171649 -0.999875 0.000000 -3.215491
5 -0.981127 0.003775 -3.153384 -0.999875 0.000000 -3.215491
6 -0.973169 0.004472 -3.126680 -0.999875 0.000000 -3.215491
7 -0.961046 0.005565 -3.085607 -0.999875 0.000000 -3.215491
8 -0.941734 0.007283 -3.019539 -0.999847 0.000002 -3.215435
9 -0.910205 0.009977 -2.910918 -0.998579 0.000065 -3.212668
10 -0.859493 0.014051 -2.736028 -0.982301 0.000796 -3.173335
11 -0.782997 0.019728 -2.474040 -0.900884 0.004077 -2.957536
12 -0.679296 0.026725 -2.124012 -0.705053 0.011132 -2.392161
13 -0.556127 0.034144 -1.716618 -0.440778 0.019486 -1.566020
14 -0.428878 0.040794 -1.305545 -0.215925 0.025371 -0.808862
15 -0.313725 0.045752 -0.942601 -0.083929 0.027667 -0.332302
16 -0.220929 0.048692 -0.656959 -0.026562 0.027562 -0.111150
17 -0.152832 0.049833 -0.451685 -0.007043 0.026461 -0.031111
18 -0.106147 0.049658 -0.313297 -0.001607 0.025128 -0.007482
19 -0.075440 0.048661 -0.223322 -0.000323 0.023836 -0.001583
20 -0.055560 0.047222 -0.165424 -0.000059 0.022650 -0.000301
21 -0.042609 0.045590 -0.127744 -0.000010 0.021573 -0.000052
22 -0.033979 0.043910 -0.102556 -0.000001 0.020592 -0.000008
23 -0.028038 0.042259 -0.085118 0.000000 0.019697 -0.000001
24 -0.023797 0.040675 -0.072585 0.000000 0.018876 0.000000
25 -0.020659 0.039174 -0.063251 0.000000 0.018121 0.000000
182
D. Volatilidad implícita y el parámetro α
α=1.53 α=1.43 α=1.33 α=1.23 α=1.20
K α-estable normal
Volatilidad
implícita α-estable normal
Volatilidad
implícita α-estable normal
Volatilidad
implícita α-estable normal
Volatilidad
implícita α-estable normal
Volatilidad
implícita
8.90 3.188408192 3.190022 0.230000 3.188294069 3.190022 0.220000 3.188106438 3.190022 0.220000 3.18780157 3.190022 0.210000 3.187665349 3.190022 0.200000
9.20 2.891381476 2.895155 0.200000 2.891261474 2.895155 0.200000 2.891066638 2.895155 0.200000 2.89075392 2.895155 0.190000 2.890615242 2.895155 0.180000
9.50 2.594352935 2.602636 0.180000 2.594226471 2.602636 0.180000 2.594023956 2.602636 0.180000 2.59370319 2.602636 0.170000 2.593562134 2.602636 0.160000
9.80 2.297322018 2.314226 0.160000 2.297188370 2.314226 0.160000 2.29696485 2.314226 0.160000 2.29664855 2.314226 0.150000 2.296505191 2.314226 0.140000
10.10 2.000287863 2.032397 0.140000 2.000146075 2.032397 0.140000 1.999926184 2.032397 0.140000 1.99958873 2.032397 0.130000 1.999443209 2.032397 0.120000
10.40 1.703249098 1.760290 0.120000 1.703097893 1.760290 0.120000 1.702867986 1.760290 0.120000 1.70252183 1.760290 0.110000 1.702374339 1.760290 0.110000
10.70 1.406203362 1.501513 0.100000 1.406040991 1.501513 0.100000 1.405799751 1.501513 0.100000 1.4054447 1.501513 0.090000 1.405295543 1.501513 0.090000
11.00 1.109146178 1.259799 0.080000 1.10896996 1.259799 0.080000 1.10871561 1.259799 0.080000 1.10835159 1.259799 0.070000 1.10820131 1.259799 0.070000
11.30 0.812067451 1.038587 0.060000 0.811873074 1.038587 0.060000 0.811602956 1.038587 0.060000 0.81123033 1.038587 0.050000 0.811080009 1.038587 0.050000
11.60 0.613990468 0.840605 0.120000 0.514716587 0.840605 0.040000 0.51442651 0.840605 0.040000 0.51404757 0.840605 0.030000 0.513899815 0.840605 0.030000
11.90 0.514937521 0.667557 0.170000 0.217317049 0.667557 0.020000 0.217002187 0.667557 0.020000 0.21663298 0.667557 0.000000 0.216498228 0.667557 0.000000
183
E. Código de Mathematica para la estimación del Rango Reescalado
datos=xlsread('TC3.xlsx');
ret=diff(log(datos(:,1)));
N=size(ret,1);
plot (1:N, ret);
alfa= input('Porcentaje máximo de datos que se pueden descartar=');
% Indica el porcentaje máximo de datos que se pueden descartar
function [ X,Y,b] = datos_reescalado(N,ret,alfa)
% Función para calcular el rango reescalado
k=floor((N/2));
r=alfa*N;
i=1:N;
while i<k
P=floor(N/i);
d=P*i;
tam=N-d;
if tam>r
i=i+1;
else
while tam<N
c=cat(2,c,ret(tam+1:tam+P));
tam=tam+P;
end
promedio= mean(c);
desv=std(c);
X=cumsum(c-medias);
Rango=max(X)-min(X);
Reescalado=Rango./desv;
dato=mean(Reescalado,2);
i=i+1;
final=(cat(1,final,[size(c,2),dato]));
end
end
Z=floor(N./final(:,1));
b=(cat(2,final,Z));
% Calculamos Ln(n y Ln(R/S)
X=log(b(:,3));
Y=log(b(:,2));
end
% Fin del Codigo de estimación del rango reescalado
[X,Y,b]=datos_reescalado(N,ret,alfa);
% Codigo de la Regresión
function [my,by,ry,smy,sby,R2]= regresion(X,Y)
% Función de regresión por mínimos cuadrados ordinarios
n=lenght(X);
Sx=sum(X);
Sy=sum(Y);
Sx2=sum(X.^2);
Sxy=sum(X.*Y);
Sy2=sum(Y.^2);
num=n*Sxy-Sx*Sy;
den=n*Sx2-Sx^2;
184
my=num/den;
by=(Sx2*Sy-Sx*Sxy)/den;
ry=num/(sqrt(den)*sqrt(n*Sy2-Sy^2));
y=by+my.*X;
diff=Y-y;
s2=sum (diff.*diff)/(n-2);
smy=sqrt(n*s2/den);
sby=sqrt(Sx2*s2/den);
R2=sqrt(sum ((diff).^2)/(n-2));
end
% Fin código de la Regresión
[my,by,ry,R2]=regresion(X,Y);
disp (['El coeficiente de Hurst es=' num2str(my)])
Grafica_Regresion(X,Y);
son=menu('Reordenar', 'Si', 'No');
if son==1
r=input('Número de veces que se desea reordenar la serie para verificar el coeficiente de Hurst');
% Número de veces que se desea reordenar la serie para verificar el coeficiente de Hurst
if r~=0
ordena(1)=my;
for i=1:r
% Inicio de la Función Reordenar
function z=reordenar(v,t)
% Función reordenar
q=rand(t,1);
o=[];
while sum (q)~=10*t
m=min(q);
r=(q==m);
for i=1:t
if r (i)~=0
b=i;
end
end
q(b)=10;
o=cat(1,o,b);
end
z=v(o);
end
% Fin de la Función Reordenar
ret=reordenar(ret,N);
[X,Y,b]=datos_reescalado(N,ret,alfa);
my=regresion(X,Y);
ordena(i+1)=my;
end
disp('')
disp(['El intervalo es:[' num2str(min(ordena)),',...',num2str(max(ordena)),']']);
end
end
salva=(cat(2,b,[X,Y]));
txt={'Particiones','Submuestras (n)','R/S','Ln (n)','Ln (R/S)','no uso'};
xlswrite('Analisis', txt, 'Rando Reescalado');
xlswrite('Analisis',salva, 'Rango Reescalado','a2')
185
F. Código de Mathematica para la estimación del Contraste de Lo
function v = lors(ts,q)
% Función para estimar el contraste de Lo (1991) mediante la estimación del rango reescalado modificado
% 1) ts – serie de tiempo en formato vector columna
% 2) q – número de rezagos incluidos en el denominador (debe ser un entero positivo)
%Si q=0 se estima el Rango Reescaldo clásico
n=length(ts);
% Tamaño de la muestra
m=mean(ts);
% La media de la serie
dev=cumsum(ts-m);
% Se crea el vector de sumas parciales de las desviaciones de la media
% for i=1:n
% dev(i,1)=sum(ts(1:i,1)-m);
% end
num=max(dev)-min(dev);
if q==0
den=std(ts,1);
v=(1/sqrt(n))*(num/den);
else
for j=1:q
w(j,1)=(1-(j/(q+1)));
end
c=xcov(ts,'biased');
N=length(c);
ac=c((n+1):N,1);
nc=ac(1:q,1);
den=sqrt(var(ts,1)+2*sum(w.*nc));
v = (1/sqrt(n))*(num/den);
end
Código escrito por Denis Tkachenko. Universidad de Dublín. Departamento de Economía.
186
G. Índice Global de Disimilaridad Trimestral
Fecha IGD
1992-I 25.47427732
1992-II 9.311669597
1992-III 14.56962001
1992-IV 4.938066438
1993-I 0.734480884
1993-II 1.897788789
1993-III 8.614572205
1993-IV 38.12517711
1994-I 56.8252403
1994-II 21.35072536
1994-III 7.582076759
1994-IV 26.69502742
1995-I 3.280687153
1995-II 6.755163482
1995-III 2.465283728
1995-IV 10.51040739
1996-I 6.509882031
1996-II 0.012394033
1996-III 0.997474416
1996-IV 2.485215161
1997-I 3.774334369
1997-II 0.791000694
1997-III 0.777074107
1997-IV 15.05163782
1998-I 2.918750823
1998-II 4.789913801
1998-III 9.409926969
1998-IV 0.141022953
1999-I 6.947964852
1999-II 5.514791009
1999-III 0.801791519
1999-IV 5.790564278
2000-I 0.463352258
2000-II 0.004666067
2000-III 2.545742124
2000-IV 1.594139829
2001-I 0.420744015
2001-II 0.227699832
2001-III 1.901379669
2001-IV 0.417307963
187
2002-I 1.635145414
2002-II 1.892383489
2002-III 2.12395378
2002-IV 0.085414446
2003-I 1.665260818
2003-II 1.041445717
2003-III 1.411653764
2003-IV 0.340182418
2004-I 1.109880898
2004-II 6.660389414
2004-III 0.046749326
2004-IV 1.676633041
2005-I 0.64966299
2005-II 6.514443712
2005-III 0.516138902
2005-IV 1.505835738
2006-I 4.136662566
2006-II 0.375006743
2006-III 1.585047284
2006-IV 4.787286914
2007-I 1.389126638
2007-II 3.510484946
2007-III 1.259608803
2007-IV 20.41889204
2008-I 2.093680468
2008-II 0.131763742
2008-III 8.817854075
2008-IV 2.219157883
2009-I 0.344621166
2009-II 1.097645949
2009-III 3.111296926
2009-IV 0.19089259
2010-I 3.313883209
2010-II 1.477751638
2010-III 1.406342892
2010-IV 1.63900009
2011-I 0.251992982
2011-II 5.426570477
2011-III 1.720953002
2011-IV 1.280549543
2012-I 4.122606288
188
H. Índice Global de Disimilaridad Anual
Fecha IGD
1992 13.454178
1993 21.148657
1994 63.015278
1995 38.525356
1996 1.831919
1997 10.137775
1998 46.627219
1999 8.805280
2000 18.828729
2001 20.697849
2002 1.053404
2003 14.263770
2004 3.459526
2005 0.318939
2006 6.694230
2007 0.582248
2008 37.434682
2009 1.267176
2010 2.761446
2011 24.343875
189
I. Publicaciones y participaciones en Congresos
La investigación realizada generó dos publicaciones aceptadas en una revista indizada por
el CONACYT.
a. Rodríguez, R. y Ake, S. (2013). Valuación de opciones de tipo de cambio asumiendo
distribuciones α-estables. Contaduría y Administración, Facultad de Contaduría y
Administración, Universidad Nacional Autónoma de México, 58 (3).
b. Rodríguez, R. (2012). La utilidad del coeficiente de Hurst y el parámetro α-estable para
el análisis de series financieras: Una aplicación para el mercado cambiario
mexicano. Contaduría y Administración, Facultad de Contaduría y Administración,
Universidad Nacional Autónoma de México, próxima publicación.
De igual forma con esta investigación se participó en los siguientes Congresos
Internacionales.
a. Hurst coefficient and alpha-stable parameter for analysis of financial series. Trabajo
presentado en la 25ª Conferencia Internacional en Investigación de Operaciones
2012, celebrada en Vilnius Litunia del 8-11 de Julio, 2012.
b. Hurst coefficient and the parameter alpha stable as early warning indicators. Trabajo
aceptado para presentarse en la Conferencia Internacional en Modelación
Económica –EcoMod2013- que se celebró en Praga, República Checa, del 1-3 de
Julio, 2013.