Cointegración en el análisis econométrico de series de tiempo

LA METODOLOGÍA DE LAS RAÍCES UNITARIAS, COINTEGRACIÓN , VECTORES
AUTORREGRESIVOS Y ESTABILIDAD DE PARÁMETROS:
ABSTRACT
Este trabajo tiene por objeto introducir un desarrollo importante en el análisis
econométrico de series de tiempo en una forma relativamente elemental. Con este fin se
enfatiza la utilización práctica de la metodología y su aplicación al análisis de algunos
problemas relevantes para la discusión sobre política económica en Perú. La presentación
se hará en seis secciones. En la introducción se hace una justificación de la metodología
de Cointegración en términos de los así llamados problemas de “regresión espuria” y de
“especificación dinámica”, así como una respuesta de la Econometría como corroboración
de relaciones teóricas al enfoque de series de tiempo. La segunda se concentra en el
concepto de nivel de integración de una serie y en la prueba estadística de su
representación como un proceso estacionario o no. En la tercera sección se presenta la
metodología de la Cointegración propiamente dicha y su representación como un
mecanismo de corrección de error. En la cuarta sección se ilustra esta técnica mediante la
presentación de una aplicación estimada para el caso peruano. Cabe la pena mencionar
que los resultados aquí expuestos no contienen resultados definitivos sobre los problemas
tratados, más bien constituye una exploración preliminar del tema que debe considerarse
como ilustraciones de la metodología presentada. En la quinta sección se presenta la
metodología de los Vectores Autorregresivos y su instrumentalización, analizando las
funciones de impulso-respuesta y de descomposición de la varianza; igualmente se
analiza los Test de Cointegración para sistemas VAR y su uso como evaluador de la
política económica. Finalmente, se exponen las conclusiones derivadas del estudio, las
mismas que constituyen solo una aproximación exploratoria al tratamiento de las series de
tiempo.
Este trabajo tiene por objeto introducir un desarrollo importante en el análisis
econométrico de series de tiempo en una forma relativamente elemental. Con este fin se
enfatiza la utilización práctica de la metodología y su aplicación al análisis de algunos
problemas relevantes para la discusión sobre política económica en Perú. La presentación
se hará en seis secciones. En la introducción se hace una justificación de la metodología
de Cointegración en términos de los así llamados problemas de “regresión espuria” y de
“especificación dinámica”, así como una respuesta de la Econometría como corroboración
de relaciones teóricas al enfoque de series de tiempo. La segunda se concentra en el
concepto de nivel de integración de una serie y en la prueba estadística de su
representación como un proceso estacionario o no. En la tercera sección se presenta la
metodología de la Cointegración propiamente dicha y su representación como un
mecanismo de corrección de error. En la cuarta sección se ilustra esta técnica mediante la
presentación de una aplicación estimada para el caso peruano. Cabe la pena mencionar
que los resultados aquí expuestos no contienen resultados definitivos sobre los problemas
tratados, más bien constituye una exploración preliminar del tema que debe considerarse
como ilustraciones de la metodología presentada. En la quinta sección se presenta la
metodología de los Vectores Autorregresivos y su instrumentalización, analizando las
funciones de impulso-respuesta y de descomposición de la varianza; igualmente se
analiza los Test de Cointegración para sistemas VAR y su uso como evaluador de la
política económica. Finalmente, se exponen las conclusiones derivadas del estudio, las
mismas que constituyen solo una aproximación exploratoria al tratamiento de las series de
tiempo.
I. Introducción.
Es muy conocido que una gran parte de los procedimientos normalmente utilizados en
Econometría están basados en regresiones lineales con muy diversas modificaciones;
estos procedimientos tienen propiedades adecuadas si se cumplen ciertas suposiciones;
la suposición que será modificada en este artículo es la de la estacionariedad de las
series que entran en la relación que se desea estimar.
Una serie de tiempo es estacionaria si su distribución es constante a lo largo del tiempo;
para muchas aplicaciones prácticas es suficiente considerar la llamada estacionariedad
débil, esto es, cuando la media y la varianza de la serie son constantes a lo largo del
tiempo. Muchas de las series de tiempo que se analizan en Econometría no cumplen con
esta condición, cuando tienen una tendencia.
Desde hace mucho tiempo1 se conoce que cuando no se cumple esta suposición se
pueden presentar problemas serios, consistentes en que dos variables completamente
independientes pueden aparecer como significativamente asociadas entre sí en una
regresión, únicamente por tener ambas una tendencia y crecer a lo largo del tiempo; estos
casos han sido popularizados por Granger Y Newbold (1974) con el nombre de
“regresiones espurias”2.
Para ilustrar este problema se pueden considerar dos variables X y Y, construidas
construidas en cada período sumando el valor de la variable en el período anterior una
variable aleatoria con distribución normal, con media cero y una cierta varianza:
Xt = Xt-1 + t t N ( 0 , 2 ).
Yt = Yt-1 + t t N ( 0 , 2 ).
y generando en forma independiente los términos aleatorios de las dos variables.
Variables construidas de este modo reciben en la literatura econométrica de series de
tiempo el nombre “paseo aleatorio” y son variables no estacionarias, cuya media y cuya
varianza son proporcionales al período de observación.
Generando las variables de acuerdo con este modelo para 240 observaciones con
varianza 2 y 3 para t y t y con valores iniciales de 1000 para X y de 12500 para Y se
obtienen dos series independientes por construcción pero con una tendencia creciente en
el tiempo; haciendo una regresión lineal entre las dos se encuentra:
Xt = -20560 + 1.7270 Yt R2 = 0.4903 D-W = 0.07695
(-14.28) (15.01)
Una interpretación muy común de este resultado sería que las variables están
significativamente asociadas pero que el bajo valor del R2 sugiere que a la ecuación le
faltan variables adicionales, la ausencia de las cuales a su vez explica el bajo valor del
coeficiente de Durbin - Watson; otra explicación podría ser la de que la estructura
dinámica de la ecuación no es la correcta y podría tratar de corregirse utilizando rezagos
1 Ver por ejemplo Yule (1926) y Working (1934).
2 Con ampliación en Granger y Newbold (1977) y Granger y Newbold (1988).
de las variables, introduciendo otras variables con rezagos o utilizando técnicas de
estimación de mínimos cuadrados generalizados para tener en cuenta la autocorrelación
de los residuos de la ecuación. Se recuerda que las variables son independientes pero
crecientes en el tiempo.
Este es un resultado muy frecuente, el ejemplo anterior es una ilustración de la técnica del
análisis de simulación llamada de “Montecarlo”. Esta técnica fue utilizada por Granger y
Newbold3 para estudiar las propiedades de regresiones entre variables no estacionarias.
Recientemente4 se ha realizado un análisis teórico del problema, en el cual se muestra
que, bajo ciertas condiciones muy generales, las principales propiedades de las
regresiones
Xt = + Yt
entre variables no estacionarias son las siguientes:
Las distribuciones de los estadísticos “t” de los coeficientes divergen, de modo que no
existen valores críticos asintóticamente correctos para las pruebas de significancia. Los
valores mencionados crecen con el tamaño de la muestra. Para recordar, en el caso de
regresiones entre variables estacionarias, las distribuciones de los estadísticos “t”
convergen a una distribución normal y, por lo tanto, no hay una tendencia a que crezcan
con el tamaño de la muestra.
Los coeficientes no son consistentes; *, el estimador MCO de diverge y *, el de ,
converge a una distribución no concentrada en un punto. Para comparar, en el caso de
regresiones entre variables estacionarias, las distribuciones de los coeficientes * y *
convergen a una distribución que concentra toda la probabilidad en el verdadero valor de
los parámetros.
El estadístico de Durbin-Watson tiende a cero, aún cuando el término aleatorio de la
regresión no presente autocorrelación y la distribución de R2 converge a una distribución
no concentrada. Todo esto en contraste con los resultados usuales para variables
estacionarias 5.
3 En el artículo anteriormente citado.
4 Phillips (1986).
5 Una presentación de estos resultados en forma algo más sencilla que la de Phillips (1986) puede encontrarse en Dolado,
Jenkinson (1987).
Resultados similares se obtienen en el caso de regresiones múltiples6.
Estos resultados hacen que sean sospechosas las estimaciones de ecuaciones de
regresión entre series no estacionarias. Las primeras recomendaciones de Granger y
Newbold7, seguidas posteriormente por muchos analistas, fueron las de usar valores de
significancia más restrictivos para los estadísticos “t”, lo cual como se vio no tiene
justificación teórica ya que los “t” crecen con el tamaño de la muestra; o la de convertir
las series en estacionarias, ya sea por medio de diferenciaciones, por extracción de una
tendencia lineal, exponencial o polinómica o usando como variables en las regresiones los
residuos de una estimación de un modelo ARIMA para las series originales, esto hace que
se pierda información sobre las relaciones de largo plazo de las variables, relaciones que
son, en muchos casos, el objeto primordial del análisis. Por lo tanto las primeras
recomendaciones de Granger y Newbold no son adecuadas para tratar el problema;
`mucho mejor es el programa de encontrar procedimientos que muestran cuándo la
relación encontrada entre las variables es “espuria” o no, y en el caso de que no lo sea,
cuáles son las propiedades estadísticas de los parámetros estimados.
Recientemente se ha dedicado mucho esfuerzo al análisis de las propiedades de
ecuaciones de regresión con variables más generales que las estacionarias, pero con
algún tipo de restricción a su distribución. Un caso particular de las variables no
estacionarias es el de las llamadas variables integradas.
Se dice que una serie de tiempo Xt es integrada de orden d ( Xt I(d) ) si puede
expresarse como:
( 1 - L )d A( L )Xt = B ( L ) t
donde L es el operador de rezago: LXt = Xt-1 , A(L) es un polinomio de orden p en L que
expresa el grado de autorregresión de la serie:
A(L)Xt = Xt - 1Xt-1 - 2Xt-2 - ... - pXt-p
B(L) es un polinomio de orden q en L que expresa la dependencia de las series en un
promedio móvil de una serie de términos aleatorios independientes:
6 Ver Phillips (1986).
7 En los dos primeros trabajos citados.
B(L)t = t - 1t-1 - 2t-2 - ... - qt-q
y tanto A(L) como B(L) tienen todas sus raíces fuera del círculo unitario (son en valor
absoluto mayores que la unidad). Otro modo de decir esto es decir que Xt es
ARIMA(p,d,q) con un proceso estacionario e invertible. En estas condiciones la menor raíz
en valor absoluto de la parte autorregresiva es la unidad y se dice que la serie tiene d
raíces unitarias o que es I(d); una serie estacionaria es I(0) y el “paseo aleatorio” utilizado
anteriormente es I(1).
Combinaciones lineales de series I(0) son I(0), combinaciones lineales de series I(1) son
en general I(1), con una excepción muy importante, la de las series cointegradas que son
I(0) y que veremos en detalle más adelante. Esto también muestra que una serie
integrada no puede ser representada adecuadamente por series estacionarias, por
ejemplo una serie de niveles de empleo no puede representarse adecuadamente como
una combinación de precios relativos solamente; del mismo modo una serie estacionaria
no puede, en general, representarse como función de series integradas.
Estudios hechos recientemente8 muestran que una gran proporción de las series
económicas no estacionarias son I(d), y muchas de ellas I(1). esto ha inducido una gran
cantidad de investigaciones sobre las propiedades estadísticas de regresiones con series
I(d)9 y sobre pruebas de que una serie de tiempo tiene raíces unitarias, usando como
hipótesis nula la de que la serie es estacionaria o la de que la serie tiene raíces menores
que la unidad, y por lo tanto diverge aún más que las series con raíces unitarias. De
particular importancia es la búsqueda de combinaciones lineales estacionarias de series
integradas, lo que se llama el caso de la Cointegración en series10.
La conexión de la metodología de la Cointegración con los mecanismos de corrección de
errores reconcilia dos puntos de vista divergentes en investigación económica: por una
parte, el de los teóricos de la econoa, quienes concentrándose en las relaciones de
largo plazo enfatizan la pérdida de la información sobre estas relaciones implicado en el
análisis en diferencias; del otro lado, los practicantes de las series de tiempo quienes
despreciando aquellas relaciones teóricas debido a su falta de información acerca de la
8 Ver por ejemplo Hall (1978), Nelson y Plosser (1982) y muchos otros.
9 Ver Phillips (1986), Phillips 91987), Phillips y Durlauf (1986) para los desarrollos teóricos.
10 Las referencias más importantes son Engle y Granger (1987), Granger (1986).
dinámica de corto plazo de los procesos, se limitan a la representación de esta dinámica.
En este sentido, en lo que se conoce como el procedimiento en dos etapas, la
metodología de Cointegración preserva tanto la posibilidad de retener la información en
niveles como la de permitir a los datos parametrizar su representación, podemos superar
los problemas de especificación dinámica y de regresión espuria11. En esta forma, la
posibilidad de complementar las relaciones de equilibrio de largo plazo de la ecuación de
Cointegración con la dinámica que incorpora el mecanismo de corrección de errores
enfatiza la significancia de la metodología de Cointegración como una respuesta de la
Econometría, como corroboración de relaciones teóricas al enfoque de las
representaciones de series de tiempo.
II. Raíces Unitarias
Como se comento en la sección anterior, las series de tiempo no estacionarias que
presentan raíces unitarias son un caso muy especial muy importantes de las series no
estacionarias, tanto por su frecuencia en economía como por lo que se conoce de sus
propiedades estadísticas; en los ;últimos años se ha realizado una gran cantidad en
trabajo para el diseño de pruebas de hipótesis de que una serie tiene raíces unitarias. En
esta sección se hará una presentación de algunas de estas pruebas. Es necesario
anotar que no se trata de realizar una presentación exhaustiva de las pruebas ideadas
hasta ahora sino solamente mostrar cuáles son las utilizadas más frecuentemente.
Asimismo, como ene l resto de este artículo, al tratarse de un artículo de divulgación, se
omiten completamente las pruebas, remitiendo al lector interesado a la literatura
pertinente.
El problema estadístico teórico que se presenta es el de la existencia de una
discontinuidad en las distribuciones, como funciones de cuando esta toma el valor de 1,
para otros valores puede utilizarse en muestras grandes las distribuciones “t” y “F”
usuales, pero para este valor especial es necesario encontrar nuevas distribuciones.
Las pruebas de raíz unitaria que se han desarrollado dependen del modelo básico que
genera la serie. El más sencillo de la forma:
xt = xt-1 + t
11 Dolado and Jenkinson (1987), Hendry (1986).
donde la hipótesis nula es de la forma Ho: = 1.
Esta hipótesis ha sido analizada en varias ocasiones con enfoques ligeramente diferentes
y da origen a pruebas distintas, muchas veces según que la prueba obtenida sea del tipo
de relación de verosimilitud (estimación del modelo bajo la hipótesis nula y bajo la
hipótesis alternativa y prueba basada en la diferencia de los valores de los logaritmos de
la función de verosimilitud en las dos situaciones), de multiplicadores de Lagrange
(estimación bajo la hipótesis nula y prueba basada en cambios a partir de esta hipótesis)
o de Wald (estimación bajo la hipótesis alternativa y prueba basada en movimientos hacia
la hipótesis nula)12.
Evans y Savin (1981,1984) desarrollan una prueba de multiplicadores de Lagrange
consistente en encontrar la distribución de *, el estimador de máxima verosimilitud de ,
bajo la hipótesis de que =1. Ellos calculan los valores de la distribución normalizada
((T/2)( * -1)) por métodos numéricos y presentan gráficos y tablas de dicha distribución.
El método de ellos es entonces estimar xt = xt-1 + t por máxima verosimilitud (mínimos
cuadrados ordinarios si se puede mantener que t es normal), calcular ((T/2)( * -1)) y
consultar las tablas que ellos presentan.
Phillips (1987) muestra que este procedimiento, con una pequeña modificación
consistente en corregir la expresión de Evans y Savin por un factor que tiene en cuenta la
posible autocorrelación de t, se aplica a los modelos más generales, de la forma
ARIMA(p,1,q), y, aún, a modelos en los cuales aparecen variables exógenas, siempre y
cuando que estas variables puedan expresarse de forma similar y no tengan a su vez
raíces unitarias. Las pruebas pueden aplicarse sin necesidad de estimar el modelo ARIMA
o su análogo con variables exógenas, y sin siquiera conocer las órdenes de los
polinomios autorregresivo y de promedio móvil.
Dickey y Fuller (1979,1981) presentan pruebas de relación de verosimilitud para un
modelo un poco más general que el de Evans y Savin:
xt = + t + xt-1 + t
12 Para una descripción y análisis de estos tres enfoques teóricos usados para diseñar pruebas de hipótesis ver Cramer
(1986).
donde es el llamado coeficiente de deriva (drift) y es la tendencia de la serie. En este
caso es ruido blanco (un proceso independiente a lo largo del tiempo, con medio cero y
varianza constante). Ellos presentan varias pruebas de hipótesis:
= = 0, es el mismo caso tratado por Evans y Savin. Ellos lo tratan de dos modos
diferentes: en primer lugar13 transforman la ecuación restando xt-1 de los dos lados de la
ecuación con lo cual obtienen:
xt = -(1- )xt-1 + t
bajo la hipótesis nula de existencia de raíz unitaria, el coeficiente de xt-1 debe ser cero.
Fuller (1976) trae una tabla con la distribución de ese coeficiente bajo la hipótesis nula.
por otro lado14 Dickey y Fuller presentan pruebas de hipótesis de las hipótesis nulas = 0
y = 0 por separado y conjuntamente con la =1 para ellos estiman el modelo bajo la
hipótesis alternativa:
xt = + t + xt-1 + t
y obtienen la distribución de los coeficientes “t” de y de y de la relación de
verosimilitud de la hipótesis completa.
= 0 le dan los mismos tratamientos del caso anterior, por medio de una
transformación se obtiene que el hecho de cumplirse la hipótesis nula equivale a que el
coeficiente de xt-1 en xt = -(1- )xt-1 + t es igual a cero , pruebas de esta hipótesis
pueden realizarse usando las tablas de Fuller (1976). Por otro lado pruebas de toda la
hipótesis y de los coeficientes particulares de las variables pueden hacerse estimando la
regresión bajo la hipótesis alternativa y usando las tablas de Dickey y Fuller (1981).
Lo mismo sucede con el tercer caso: 0,  0 ahora la ecuación auxiliar es:
xt = + (1- ) + t - (1- )xt-1 + t
13 Dickey y Fuller (1979)
14 Dickey y Fuller (1981)
Dickey y Fuller hacen una ampliación de sus pruebas al caso en el cual sigue un
proceso autorregresivo de orden p, la prueba llamada de Dickey y Fuller Aumentada que
consiste en estimar las ecuaciones auxiliares mencionadas, añadiéndose rezagos de los
valores de x. Phillips (1987) también amplía al caso de modelos estacionarios más
generales los resultados de Dickey y Fuller.
Es necesario anotar, sin embargo, que procesos con coeficientes muy altos en los
procesos de promedio móvil presentan problemas especiales en lo que respecta al poder
de estas pruebas15.
La otra prueba comúnmente usada es la de Sargan y Bhargava16, esta prueba se basa en
los valores de la prueba de Durbin-Watson de las regresiones de la variable sobre su
valor rezagado, la distribución no es la encontrada por Durbin y Watson sino la que
encuentran y calculan Sargan y Bhargava.
Pruebas de Raíces Unitarias para Series de Tiempo.
A) Prueba de Dickey - Fuller (DF).- Dickey y Fuller encontraron que el problema
podría ser simplificado sacando a t de ambos lados de , t =t-1 + t para obtener: t =
(-1)t-1 + t
t = t-1 +t
cuando la hipótesis nula es ahora H0: =0 y la hipótesis alternativa es H1: <0. Mientras
esta transformación ayudo con los problemas de la distribución, la prueba estadística no
sigue con la distribución tradicional y los valores críticos para la evaluación de la prueba
estadística han tenido que ser determinados a través de los extensos experimentos de
Monte Carlo17.
B) Prueba ampliada de Dickey-Fuller (ADF).- El proceso autorregresivo de t =
t-1 +t es muy simple y para tener en cuenta dinámicas más complejas, Dickey y Fuller
propusieron pruebas para la estacionariedad basadas en la ecuación ampliada:
t = 0 + 1t + t-1 + jt-j + t
donde j=1,...m, 0 toma en cuenta la dirección y t es la tendencia lineal en el tiempo.
15 A la probabilidad de rechazar la hipótesis nula cuando esta es falsa.
16 Sargan y Bhargava (1983) y Bhargava (1987)
17 Para más detalles, ver Mackinnon (1991).
La mayoría de la literatura teórica y estudios empíricos han estado interesados en el caso
en el cual las variables a investigarse son I(1) y sólo dos variables son consideradas en
un período, pero han habido algunos interesantes desarrollos recientes en la
Cointegración Multivariable y en las pruebas desarrolladas para las Raíces Unitarias y
para la Cointegración (ver Engle y Granger 1991)18.
C) Prueba de Raíz Unitaria de Phillips-Perron (PP).- Una prueba alternativa de raíz
unitaria fue desarrollada por Phillips y Perron . Al igual que la prueba ADF, la prueba PP
es una prueba de hipótesis sobre p=1 en la ecuación: ∆Yt = ∆ + pYt-1 + ∆ t ; pero a
diferencia de la prueba ADF, no existen términos de diferencias retardados. Más bien, la
ecuación es estimada por MCO y luego el estadístico "t" del coeficiente p es corregido. La
hipótesis nula H0 del test de Phillips-Perron es la trayectoria de raíz unitaria con tendencia
y la alternativa la estacionariedad con tendencia, si el valor t-Student asociado al
coeficiente de Yt-1 es mayor en valor absoluto al valor crítico de MacKinnon, se rechaza la
hipótesis de existencia de raíz unitaria.
D) Test de Zivot y Andrews.- Zivot y Andrews (1992) .- Zivot & Andrews elaboraron
un test en el que se diferencia una trayectoria de raíz unitaria de una estacionaria cuando
había cambio estructural, debido a que los tradicionales test ADF y PP estaban sesgados
hacia el no rechazo de la hipótesis nula de raíz unitaria, puesto que a menudo se
rechazaba incorrectamente la hipótesis alternativa de estacionariedad. La hipótesis nula
es la presencia de raíz unitaria con tendencia y la alternativa, la de estacionariedad con
tendencia y cambio estructural (en el nivel y/o pendiente). Zivot y Andrews presentan unos
gráficos en la que se plotean por un lado, la trayecoria de la distribución t o t’s de Zivot, y
por el otro los valores de la distribución t crítico. Si el valor t-Zivot es menor que los
valores críticos (VCRIT), existe suficiente evidencia estadística para rechazar la hipótesis
nula de raíz unitaria, por lo que la(s) serie(s) evaluadas muestra una trayectoria de raíz
unitaria. Contrariamente, si la distribución de valores t Zivot son mayores que el t crítico,
no existe evidencia para rechazar la hipótesis nula de raíz unitaria (no estacionariedad).
Perron (1989) sostuvo que los tradicionales test de raíz unitaria (Dickey-Fuller, Dickey-
Fuller Aumentado y Phillips-Perron) tenían poco poder para diferenciar una trayectoria de
raíz unitaria de una estacionaria cuando había cambio estructural. En consecuencia,
18 La versión 3.0 de MICROFIT y del EVIEWS ofrece las pruebas DF y ADF automáticamente y un número reciente de
pruebas que no son discutidas en este artículo (e.g. Test de Cointegración de Johansen). Los manuales contienen un buen
resumen de la teoría al respecto, ver Pesaran y Pesaran (1991) y QMS(1998).
como estos test estaban sesgados hacia el no rechazo de la hipótesis nula de raíz
unitaria, a menudo se rechazaba incorrectamente la hipótesis alternativa de
estacionariedad. Perron encontró, por ejemplo, que las series de agregados
macroeconómicos y financieros utilizados por Nelson y Plosser (1982) eran en su mayoría
estacionarias con cambio estructural, en oposición a lo que los citados autores
señalaban. Siguiendo esta línea, Zivot y Andrews (1992)19 elaborarón un test en la que la
fecha del punto de quiebre era determinada endógenamente.
E) Metodologia del Filtro de Hodrick Prescott .- De acuerdo con este metodo es
preciso encontrar la serie Y*t (tendencia) que minimice :
t
N
1
( Yt - Yt* )2 +
t
N
2
( Yt -
Yt* )2 la serie Yt* equivale a la variable potencial y es el parámetro de suavización, en
una serie estacionaria, la tendencia es casi paralela al eje X. El filtro de Hodrick Prescott
es quizá el método mas frecuentemente utilizado para determinar la tendencia de una
serie estacionaria, sin embargo ha sido sujeto a criticas diversas. Entre ellas destaca el
hecho de que la determinación ex ante del parámetro de suavización esta sujeta a la
discrecionalidad del investigador, que los extremos de la serie de tendencias están
deficientemente definidos y que induce un comportamiento cíclico espurio en los datos.
Sin embargo el método representa un patrón contra el cual pueden compararse otros
métodos de estimación para series estacionarias.
-7.0
-6.5
-6.0
-5.5
-5.0
-4.5
-4.0
40 60 80 100 120 140
ZIV OT V CRIT
Test de Zivot & Andrews: Cambio en el nivel y en la tendencia
Primera diferencia de la demanda de dinero real en logaritmos.
-6
-4
-2
0
2
4
6
85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 00 01
D1LDEVARE TENDENCIA
Logartimos de la Tasa de Devaluacion real en primeras diferencias
y tendencia segun el filtro de Hodrick-Prescott
Años
Devaluacion real (primeras diferencias)
19 Zivot, Eric y Andrews, Donald W.K., 1992, “Further Evidence on the Great Crash, the Oil-Price Shock and the Unit-Root
Hypothesis”, Journal of Business and Economic Statistics vol.10, nr.3, pp. 251-270.
Aquí la serie de dinero real, registra un comportamiento errático debido a la presencia de
un posible quiebre estructural.
En la sección V de este artículo aparecerán ejemplos del uso de estas pruebas.
IV. Ecuación de Cointegración y Mecanismos de Corrección de Errores.
Se dice que un vector de series de tiempo xt es cointegrado de orden d,b ( xt CI(d,b)) si
siendo todas las series del vector I(d), existe un vector de coeficientes tal que z = ‘x
I(d -b), b >0. En particular, si N=2 y d=b=1 se tiene para las series xt y yt, las cuales son
I(1), que si bien en general cualquier combinación lineal de ellas es I(1), si existe un tal
que zt= xt - yt es I(0), ellas son cointegrados de orden 1 y el parámetro de Cointegración
es único.
Ahora bien, el hecho de que esta combinación lineal es I(0) a pesar de que las series
individualmente sean I(1), en otras palabras, de que zt, por oposición a xt y a yt
individualmente no tienen componentes dominantes de onda larga significa que es tal
que el grueso de los componentes de largo plazo de yt y xt se cancelan mutuamente. Por
otra parte, cuando se deriva de la teoría económica la operación de fuerzas que tienden a
mantener xt y yt juntas y se postula la existencia de una relación de equilibrio de largo
plazo entre ellas, se esta implicando que xt y yt no pueden alejarse mucho lo cual
expresado en términos las características del error de equilibrio zt, significa que debe
ser estacionario. Por consiguiente, esta reducción del orden de integración de manera que
zt es I(0) aparece como la condición de posibilidad estadística de la postulación de una
relación de equilibrio entre xt y yt. O para ponerlo en términos de las pruebas de hipótesis
de la representación de paseo aleatorio para zt, el equilibrio estimado sería desalentador
e irrelevante.
Resulta entonces, claro , que hacer pruebas de Cointegración entre xt y yt no es diferente
de hacer pruebas de estacionariedad de zt; más precisamente, con el fin de comprobar la
hipótesis nula de no Cointegración para esas series lo único que se necesita hacer es
comprobar la hipótesis nula de una representación de paseo aleatorio para zt. Y por
consiguiente, el procedimiento metodológico obvio con el fin de hacerlo es correr la
regresión de Cointegración xt= C + yt + t, por mínimos cuadrados ordinarios y aplicar
alguna de las pruebas de raíz unitaria. Es de anotarse que un síntoma de Cointegración
entre variables es un valor alto del R2 acompañado de valores no muy bajos (de acuerdo
con la prueba de Sargan y Bhargava) de estadístico de Durbin y Watson.
Granjer y Engle (1987) muestran que, en el caso de Cointegración, el procedimiento de
mínimos cuadrados ordinarios produce resultados consistentes para los parámetros de la
ecuación (mejor aún, superconsistentes, en el sentido de que los parámetros tienden a su
verdadero valor en forma inversamente proporcional al número de observaciones y no a la
raíz cuadrada de ese número como es el caso usual con series estacionarias), muestran
también que las pruebas de hipótesis usuales no son válidas. Ellos muestran también
que, en el caso de dos variables, la ecuación de Cointegración esta identificada (en el
sentido econométrico no en el sentido de series de tiempo) por la condición de que es la
única combinación lineal de las variables con varianza finita; en el caso de varias
variables puede haber diversas relaciones de Cointegración y es necesario introducir
criterios adicionales de identificación, normalmente por exclusión de variables como en la
situación clásica.
En cuanta a las pruebas de Dickey y Fuller y de Dickey y Fuller Ampliada, de nuevo se
utilizan las tablas no estándar del “t” con el objeto de rechazar una hipótesis de raíces
unitarias en favor de la estacionariedad; sin embargo, debe enfatizarse que en el caso de
haber más de dos variables en el vector de Cointegración, caso en el cual no es
necesariamente único de manera que pueden existir varias relaciones de equilibrio, los
valores críticos del estadístico “t” son ahora correspondientemente altos20. Por otra parte,
en cuanto a la prueba de Sargan y Bhargava, en la misma forma que cuando se
comprobaba la presencia de raíces unitarias, un DW de la regresión xt = c + ut
significativamente mayor que cero permitía rechazar la hipótesis de que xt era paseo
aleatorio, cuando se comprueba Cointegración un DW de la regresión de Cointegración
(notado como CRDW) significativamente mayor que cero permite rechazar la hipótesis de
no Cointegración.
Finalmente, se va a considerar el vínculo entre Cointegración y mecanismo de corrección
de errores tanto desde un punto de vista estadístico como desde un punto de vista
metodológico, el primero con respecto a lo que es conocido como Teorema de
Representación de Granger, y el segundo al así llamado Procedimiento en Dos Etapas de
Engle y Granger (2EEG)21. Ahora bien, antes de introducir esto se debe recordar que un
20 Ver tabla tomada de Engle y Yoo (1987) p. 157.
21 Ver Granger (1983), Granger & Engle (1985), Engle y Granger (1987).
mecanismo de corrección de errores postula22 que una proporción del desequilibrio de un
período es corregido es corregido en el siguiente período, y que un modelo de este tipo
relacionaría el cambio de una variable con los errores de equilibrios pasados y los
cambios pasados en ambas variables. Entonces, la implicación de este teorema es que
series cointegradas tienen una representación de mecanismo de corrección de errores e,
inversamente, un mecanismo de corrección de errores genera series cointegradas; en
otras palabras: si xt , yt son I(1), sin tendencias en medias, y son cointegradas, siempre
existe un mecanismo de corrección de errores de la forma:
xt = -1 zt-1 + A1 (L) xt + B1 (L) yt + D1 (L)1t
yt = -2 zt-1 + A2 (L) xt + B2 (L) yt + D2 (L)2t
donde zt-1 es el residuo de la ecuación de Cointegración rezagado un período y todos los
polinomios en términos rezagados tienen sus raíces fuera del círculo unitario. Además
datos generados por un mecanismo de corrección de error debe ser cointegrado
(Granger, 1986).
Ahora bien, la existencia, dada la Cointegración, de una representación MCE que no esta
sujeta a los problemas de regresión espuria, ya que todas las variables que entran en la
ecuación son estacionarias, da lugar al método de dos etapas de Engle y Granger. Este
procedimiento es muy sencillo, simplemente consiste en la ejecución de la regresión en
niveles por mínimos cuadrados ordinarios, la realización de la prueba de Cointegración,
seguida de la estimación de un mecanismo de corrección de error, estimado otra vez por
MCO, este mecanismo incluye los residuos de la ecuación de Cointegración en lugar de
términos en niveles de las variables que entran en ella, tal como se muestra. En esta
forma, la imposición de restricción dada por la ecuación de Cointegración sobre el MCE
expresa la introducción del impacto de la relación teórica de equilibrio de largo plazo
sobre el modelo dinámico de corto plazo. En términos prácticos, entonces, se puede (y se
debe) usar Cointegración en primer lugar como una pre - prueba a fin de evitar
situaciones de regresión espuria, y únicamente después de rechazar no Cointegración
pasar a la especificación en cambios rezagados, con el fin de modelar z mediante el
22 Sargan (1964), Davidson, Hendry, Srba y Yeo (1978)
mecanismo de corrección de errores. De manera que, el procedimiento de Engle y
Granger permite producir proyecciones de corto plazo que, al ser consistentes con las de
largo plazo derivadas de la teoría económica, proveen una alternativa poderosa a
aquellas derivadas del análisis simple de series de tiempo y, además permite la
incorporación clara de la estructura dinámica en las ecuaciones derivadas de la teoría
económica, al permitir estimar conjuntamente tanto la relación de equilibrio como el
comportamiento del sistema fuera del equilibrio.
V. ANALISIS DE ESTABILIDAD DE PARÁMETROS23
La utilidad de los estimadores MCO en la explicación y en la proyección de variables
economicas depende fundamentalmente del cumplimiento de los supuestos del MLG. Por
ello, un análisis econometrico completo debe verificar que no existan indicadores que
hagan dudar el cumplimiento de alguno de los supuestos. Existen dos formulaciones para
indagar sobre la presencia de inestabilidad, la técnica tradicional y la estimación recursiva.
La técnica tradicional se basa en el supuesto de que se conoce la fecha del punto de
quiebre24 y en virtud de tal supuesto se realiza la conocida prueba del cambio estructural
propuesta por Gregory Chow25. Esta prueba esta basada en el contraste F de Fisher que
se distribuye con k y (n-2k) grados de libertad, si el valor F-Chow es menor que el valor
tabular F con los grados de libertad apropiados y al nivel de confianza escogido, se podria
aceptar la hipótesis de estabilidad de parámetros, pero si el valor calculado F-Chow
resultara mayor que el valor tabular F Fisher, no podria aceptarse la hipótesis que los
parámetros poblacionales son significativamente iguales, por lo tanto se puede asumir
parámetros inestables.
Des esta manera con el test de Chow es posible evaluar según la fecha determinada,
hubo o no un cambio de estructura que se manifestó en la función analizada.
La estimación recursiva, que consiste en aplicar sucesivamente la técnica de MCO
alterando en uno el numero de observaciones proporciona estimadores que poseen
ciertas características que son verificables si los supuestos del MLG se cumplen. Esto a
de permitir relacionar sus características con el cumplimiento de los supuestos.
23 El Problema de la Estabilidad de Parámetros, Paper de Investigación XXXVIII Curso de Extensión Universitaria BCRP
1991, Jorge Cortez Cumpa.
24 El punto de quiebre o “Break Point”es la presumible fecha en la que el modelo converge asintoticamente a tener
inestabilidad parametrica producto de cambios estructurales que desalinean la relación estimada.
25 G. Chow, Test of Equality Between sets of Coefficiente in two linear regressions, Econometrika 1960, Vol. 28, pp. 591-
605.
A través de los estimadores recursivos es posible detectar la presencia del problema
econometrcio mencionado mediante la utilización de pruebas estadísticas, tales como el
Test de Residuos Recursivos y el Test CUSUMSQ. El residuo recursivo
correspondiente a la observación t, se define como la diferencia entre el valor observado
de la variable endógena y el valor predicho de la misma, observando que bajo la hipótesis
nula de estabilidad y el supuesto de normalidad, los residuos recursivos Wn posee las
mismas características que los residuos poblacionales Un y por ello se concluye que es un
buen estimador de este. Si los valores de Wn no cambia de manera sistemática en el
horizonte temporal de su trayectoria, por lo cual se concluye que no hay evidencia de
inestabilidad en el modelo estimado.
En la misma línea, el Test CUSUMSQ (suma acumulada de residuos al cuadrado), en un
intento de evitar la limitación de aceptar la hipótesis de estabilidad por razones causales,
situación que se puede presentar en el test anterior, los autores (Brown, Durbin y Evans)
proponen un contraste que consiste en dibujar la serie temporal de Wn así como las líneas
que limitan la banda de confianza : E (Wn) ± Co donde el valor crítico de Co se obtiene de
la tabla estadística CUSUM. Nuevamente, si Wn se sale de la banda, se rechaza la
hipótesis de homogeneidad del modelo. Se observara, que el algoritmo Wn es una función
monótona creciente con límite en la unidad, el cual sigue una distribución beta con
parámetros (s - k) / 2, y (n - s) / 2; con esperanza E (Wn) = (s - k) / (n-k).
-0.8
-0.6
-0.4
-0.2
0.0
0.2
0.4
0.6
86 87 88 89 90 91 92 93 94 95 96 97 98 99 00 01
Residuos Recursiv os ± 2 S.E.
Residuos Recursiv os de la Estimacion de la Funcion de
Demanda por Dinero Real en Primeras dif erencias
-0.2
0.0
0.2
0.4
0.6
0.8
1.0
1.2
91 92 93 94 95 96 97 98 99 00 01
Test CUSUM al cuadrado 5% de Significancia
Ajuste por quiebre e incorporando variables Dummy's
Volatilidad de los residuos
VI. Ejemplos
En esta sección se presenta una aplicación de la metodología anterior. Cabe la pena
mencionar que esta ilustración es solamente ilustrativa, y que forman parte de trabajos
más completos que esta siendo desarrollado por el autor.
A. Tipos de cambio
Es de esperarse que existan una relación de largo plazo entre el tipo de cambio oficial y el
tipo de cambio paralelo, si esta no existiese se presentarían oportunidades ilimitadas de
ganancia a personas que comprasen y vendiesen en los mercados.
Se trabajara en este ejercicio con datos mensuales de los dos tipos de cambio desde
enero de 1980 hasta diciembre de 1999.
El primer paso consiste en estudiar la presencia de raíces unitarias en las dos series.
Para disminuir problemas adicionales de heterocedasticidad se trabajo con logaritmos de
las variables.
El procedimiento general, consiste en cinco pasos:
- Prueba de raíz unitaria de las series.
- Estimación de la relación de Cointegración.
- Prueba de Cointegración.
- Estimación del mecanismo de corrección de errores. Y,
- Pruebas estadísticas de esta ecuación.
Aplicando la prueba de Evans y Savin se raíces unitarias se tiene:
Variable Coeficiente Prueba Significancia
Paralelo 1.003294 0.5590 0.85
Oficial 1.003388 0.5749 0.87
Como puede verse no se puede, con base en esta prueba rechazar la hipótesis de
existencia de una raíz unitaria en las dos series.
Aplicando la prueba de Sargan y Bhargava se obtienen resultados similares:
Variable Durbin-Watson Significancia
Paralelo 0.00177 > 0.10
Oficial 0.00029 > 0.10
Aplicando la prueba de Dickey y Fuller se tiene:
Variable Coeficiente t Significancia
Paralelo 0.00329 5.9842 > 0.10
Oficial 0.00339 33.160 > 0.10
En esta prueba los coeficientes resultaron positivos, lo cual es indicio de que no se puede
rechazar la hipótesis de raíz unitaria y de que es posible que existan varias. Se aplicaron
las otras pruebas de Dickey y Fuller, con el resultado, en todos los casos de que no se
puede rechazar la hipótesis de una raíz unitaria. En los dos casos se rechazaron las
hipótesis de una tendencia no aleatoria y de una deriva (drift). La hipótesis que
permaneció fue la de unos procesos con raíz unitaria.
Las mismas pruebas se aplicaron a las diferencias de las series para examinar la
hipótesis de dos raíces unitarias. Para el tipo de cambio paralelo se rechaza muy
claramente la hipótesis utilizando cualquier prueba. Para el tipo de cambio oficial la
situación no es tan clara, se rechaza la hipótesis pero marginalmente.
En resumen las dos series son I(1) y se les puede aplicar los métodos de la sección III
para ver si son variables cointegradas.
La ecuación de Cointegración es:
Paralelo = 0.056611 + 0.990999*Oficial + e R2 = 0.99284 D-W = 0.20476
O, alternativamente:
Oficial = -0.027624 + 1.001856*Paralelo + e R2 = 0.99284 D-W =
0.20328
Las dos ecuaciones están muy cerca de ser la una la inversa de la otra, lo cual según
Engle y Granger es un síntoma de Cointegración, esto se muestra en el hecho de que el
producto de los coeficientes de las variables explicatorias, en este caso 0.9928, sea muy
cercano a la unidad.
Aplicando la prueba de Sargan y Bhargava se tiene de acuerdo a la tabla publicada por
Engle y Yoo (1988) que los valores críticos de la prueba son 0.29 para 1%, 0.2 para 5% y
0.16 para 10% de modo que se puede rechazar la hipótesis nula, no Cointegración o lo
que es lo mismo presencia de una raíz unitaria en los residuos de la ecuación de
Cointegración, a un nivel por lo menos 5%, el mismo resultado es válido usando
cualquiera de las dos ecuaciones.
Otras de las pruebas es la de aplicar Dickey y Fuller a los residuos de la regresión, para el
tipo de cambio paralelo, se obtiene:
Cambio Residuos = -0.103217*Residuos (-1 ) +
(-3.50105 )
Las tablas muestran como valores críticos del coeficiente “t”:-4(1%), -3.37(5%) y -
3.02(10%), como en el caso de la prueba anterior, se puede rechazar la hipótesis de no
Cointegración a un nivel de por lo menos 5%. Algo similar ocurre si se toma como
ecuación de Cointegración aquella en la cual aparece como variable dependiente el tipo
de cambio oficial. Y lo mismo sucede con las demás pruebas de Cointegración.
Como se vio en la sección III, asociado a la ecuación de Cointegración existe un
mecanismo de corrección de errores, en el cual el cambio en las variables cointegradas
esta asociado a los residuos de la ecuación de Cointegración y, probablemente, a valores
rezagados de los cambios de las variables y a otras variables que no entraron en la
ecuación de Cointegración. Usando hasta doce rezagos de cada uno de los cambios de
las variables, por tratarse de series mensuales, se estimo la ecuación de corrección de
errores que aparece en el cuadro 1.
Cuadro 1
Ecuación de corrección de errores en el tipo de cambio paralelo ( CTPAR)
Variable Rezago Coeficiente t-Statistic Significancia
Constante 0 -0.004531 -0.935198 0.3496860
Residuo 1 -0.080057 -2.280963 0.0225506
Ctpar 1 -0.135146 -1.823069 0.0682929
Ctpar 2 -0.143257 -1.916368 0.0553183
Ctpar 3 -0.128595 -1.719982 0.0854357
Ctpar 4 -0.282954 -3.788447 0.0001516
Ctpar 5 -0.044578 -0.578704 0.5627889
Ctpar 6 0.000977 0.012698 0.9898690
Ctpar 7 0.047242 0.616075 0.5378450
Ctpar 8 -0.017708 -0.229811 0.8182390
Ctpar 9 -0.102966 -1.399052 0.1617970
Ctpar 10 -0.767432 -1.049615 0.2938950
Ctpar 11 0.542212 0.758402 0.4482100
Ctpar 12 0.145937 2.069835 0.0384670
Ctof 1 1.785215 2.271580 0.0231120
Ctof 2 -0.232684 -0.202017 0.8399030
Ctof 3 -1.272581 -1.088481 0.2763830
Ctof 4 2.186517 1.852417 0.0639660
Ctof 5 -0.895971 -0.750444 0.4529870
Ctof 6 1.172320 0.983896 0.3251660
Ctof 7 -1.866239 -1.573436 0.1156180
Ctof 8 0.880443 0.740438 0.4590340
Ctof 9 0.034644 0.029335 0.9765980
Ctof 10 1.096212 0.936424 0.3490540
Ctof 11 -0.886466 -0.769352 0.4416480
Ctof 12 -0.094025 -0.119790 0.9046500
R2 0.3029 Q = 44.82
Como puede verse, el coeficiente de los residuos de la ecuación de Cointegración es
negativo y es significativo, lo cual constituye otra prueba de la existencia de Cointegración
entre las dos variables, el signo negativo quiere decir que cuando el tipo de cambio
paralelo se aleja mucho de la ecuación de equilibrio en un período, existen fuerzas que la
hacen acercarse a dicha ecuación en el período siguiente. El valor del R2 es bajo, lo cual
indica la necesidad, si se quiere una ecuación que explique mejor el comportamiento de la
variable, de introducir en el modelo variables diferentes de las se han incorporado; el valor
del estadístico Q (Box-Ljung) muestra que no se puede rechazar la hipótesis de que los
residuos son ruido blanco. Como resulta siempre en una primera etapa de estos
ejercicios, hay muchas variables que son significativas, reestimando la ecuación,
eliminando esas variables se obtienen los resultados del cuadro 2.
Cuadro 2
Ecuación de corrección de errores en el tipo de cambio paralelo ( CTPAR)
Variable Rezago Coeficiente t-Statistic Significancia
Constante 0 -0.004482 -1.021553 0.306993
Residuos 1 -0.086511 -2.640473 0.008279
Ctpar 1 -0.126847 -1.929663 0.053653
Ctpar 2 -0.160104 -2.510814 0.012045
Ctpar 3 -0.156908 -2.479135 0.013170
Ctpar 4 -0.263093 -4.244920 0.000022
Ctpar 12 0.170443 2.784201 0.005366
Ctof 1 1.757943 5.854069 0.000000
R2 0.2594 Q = 43.8533
Este cuadro muestra resultados bastante satisfactorios, todas las variables son muy
significativas, el tipo de cambio paralelo entra con cuatro rezagos seguidos y con un
rezago de orden 12 el cual refleja la estacionalidad del proceso, el tipo de cambio oficial
entra con un rezago y, por su puesto, a través del mecanismo de corrección de errores.
Cuadro 3
Ecuación de corrección de errores en el tipo de cambio oficial ( CTOF)
Variable Rezago Coeficiente t-Statistic Significancia
Constante 0 0.000808 1.950051 0.051170
Residuo 1 0.002358 0.867466 0.385687
Ctpar 11 0.016669 3.069838 0.002142
Ctpar 12 0.009784 1.755329 0.079203
Ctof 1 1.010398 5.278560 0.000000
Ctof 2 -0.148142 -2.218871 0.026495
Ctof 12 0.061952 1.965018 0.049412
R2 0.8816 Q = 52.9424
El cuadro 3 muestra el resultado del mismo ejercicio para la serie del tipo de cambio
oficial, como se vio anteriormente, esta serie tiene mucha más inercia que la anterior,
tanto que puede dudarse de si se trata de una serie I(1) o de una I(2), esto explica
también el alto valor del R2 en esta ecuación. Como es de esperarse, el coeficiente del
residuo es de signo positivo, pero no es significativo, esto indica que el tipo de cambio
oficial afecta a la paralela a través del mecanismo de corrección de errores pero no
sucede lo contrario. Sin embargo, la paralela si afecta a la oficial en forma más directa,
sobre todo en la parte estacional de la serie.
Granger muestra que si existe Cointegración, y por consiguiente mecanismo de
corrección de errores, existe también causalidad en el sentido de Granger, por lo menos
una de las variables causa a la otra, en el sentido de que tenerla en cuenta aporta a la
calidad de la explicación de la otra variable. En esta caso el tipo de cambio oficial causa a
la paralela en el sentido Granger pero no al revés.
Los resultados sugieren que el mercado paralelo de dólares no es un mercado eficiente,
en el sentido que utiliza toda la información disponible, si así fuese, el tipo de cambio
paralelo sería un paseo aleatorio, el pasado de la serie no contendría ninguna información
sobre los cambios en la serie cosa que los resultados anteriores muestran que se puede
rechazar.
VII. Instrumentalizacion de la Metodología de Vectores Autorregresivos (VAR). 26
En esta parte del artículo se analizara los detalles técnicos asociados con estimación y
uso de los Vectores Autorregresivos (VAR), en particular en el manejo de series de tiempo
no estacionarias útil para analizar la interrelación entre las diferentes series de tiempo. El
objetivo fundamental de la propuesta es proporcionar una estrategia de modelización que
al evitar la generosa imposición de restricciones en que se apoya la identificación de los
modelos econométricos convencionales, permita reflejar lo más fielmente posible las
regularidades empíricas e interacciones entre las variables objeto de análisis.
Cuando se tienen varias series, es necesario tomar en cuenta la interdependencia entre
ellas. Una forma de hacerlo es estimar un modelo de ecuaciones simultáneas, pero con
rezagos en todas las variables. Este modelo se conoce como modelo dinámico de
ecuaciones simultáneas . Sin embargo, esta formulación supone dos pasos: primero, es
preciso clasificar las variables en dos categorías: endógenas y exógenas; segundo: deben
imponerse ciertas restricciones en los parámetros para lograr la identificación. Para
superar esto se propone el uso de los “Vectores Autorregresivos” que no es más que una
generalización del modelo Autorregresivo AR ( p ) a las series de tiempo múltiples.
Los Vectores Autorregresivos han proveído una exitosa técnica para hacer pronósticos en
sistemas de variables de series de tiempo interrelacionadas, donde cada variable ayuda a
pronosticar a las demás variables. VAR es también frecuentemente utilizado, aunque con
considerable controversia en el análisis del impacto dinámico de diferentes tipos de
perturbaciones y controles fortuitos en sistemas de variables. Un VAR es un sistema de
variables que hace de cada variable endógena una función de su propio pasado y del
pasado de otras variables endógenas del sistemas . El estudio de las interacciones
dinámicas estimadas es una de las motivaciones fundamentales de los usuarios de los
modelos VAR y, de hecho, los usos típicos de estos modelos reflejan esta motivación.
Tales usos son el computo de las funciones impulso-respuesta y de la descomposición de
la varianza del error de predicción. Las implicaciones dinámicas del modelo estimado
dependerán evidentemente de la estructura de correlaciones contemporáneas reflejada
en la matriz de perturbaciones. Explicar cómo realizar esta incorporación, el computo de
las estimaciones VAR, de la función impulso-respuesta y de la descomposición de la
26 Para una ilustración detallada sobre este punto ver: “Un Modelo Econométrico para el Perú sobre la dinámica del
desequilibrio fiscal y el proceso inflacionario en el período 1985-1995: Aplicación de la técnica de Vectores Autorregresivos”,
Tesis de Licenciatura en economía , Gustavo Trujillo Calagua Lima 1998 UNFV.
varianza del error de predicción, serán el objeto de estudio de las siguientes secciones. La
estimación del modelo VAR es más sencillo, ya que es posible utilizar el método de los
Mínimos Cuadrados Ordinarios (MCO). Toda esta exposición esta basada en los trabajos
de Christopher A. Sims, “Macroeconomics and Reality” (1980) y “Macroeconometrics
VAR: A Explanations” (1991).
Metodología del Vector Autorregresivo.27
La metodología VAR es, en cierta forma ,una respuesta a la imposición de restricciones a
priori que caracteriza a los modelos econométricos convencionales: en un sistema de
ecuaciones simultáneas se requiere imponer restricciones sobre los parámetros de las
mismas para garantizar la identificación y posible estimación de las ecuaciones que lo
conforman. Para ello, además, es indispensable diferenciar entre las variables endógenas
y las predeterminadas, es decir, aquellas cuyos valores no son determinados por el
modelo en el período actual. Estas últimas pueden ser exógenas o endógenas
rezagadas.
El VAR presenta alternativamente, un sistema de ecuaciones simultáneas en el que cada
una de las variables son explicadas por sus propios rezagos y los del resto de variables
del sistema. Es decir no se admite restricciones a priori y todas las variables son
consideradas endógenas. La única información a priori que se incluye está referida al
número de rezagos de las variables explicativas que se incorporan en cada ecuación.
No obstante, en términos operativos, una correcta especificación del sistema requiere que
la determinación de las variables a ser incluidas en él, se base en el conocimiento de un
modelo teórico relevante. Un VAR tiene en general la siguiente especificación:
(1) Yt =
i
p
1
iYt +i +t
Donde Yt é Yt-1 son vectores de orden m1 (m es el número de rezagos del sistema) y i
es la matriz (cuadrada de orden m) de coeficientes del rezago i de las variables
explicativas en las m ecuaciones.
De esta forma, se puede observar que deberán estimarse tantas matrices i como
rezagos se incluyan en el sistema. Matricialmente: (2)
27 Ver C. Sims: “Methodology of Autorregressions Vector” 1980.
Y1t a11(L) a12(l) a1m(L) Y1t 1t
Y2t a21(L) a2m(L) Y2t 2t
. = . . . . + .
. . . . . .
Ymt aml(L) amm(L) Ymt mt
En este sistema:
(3) E[ t t-j] = 0 j 0
(4) E[ t´ t] =
Como se observa, todas las explicativas del sistema son predeterminadas (endógenas
rezagadas); además, los errores tienen una varianza constante y no presentan
autocorrelación. Por ello, el mejor estimador asintótico de este modelo es el de mínimos
cuadrados ordinarios (MCO) aplicado ecuación por ecuación. En términos prácticos se
recomienda:
1-Limpiar cada una de las series de cualquier tipo de estacionariedad.
2-Estimar por MCO cada ecuación individualmente.
3-Determinar el número de rezagos de las variables explicativas que deben permanecer
en cada ecuación.
Para ello se sugieren dos tipos de test: primero el test F por bloques, para probar la
hipótesis nula de que un número i de rezagos deben incluirse como explicativas en cada
ecuación, versus la alternativa de que dicho número es i + r > i.
Este test tiene el problema de que debe ser aplicado individualmente a cada
ecuación, pudiendo llegarse a la conclusión de que el número de rezagos a incluirse en
ellas es diferente en cada caso. Esto le restaría eficiencia al estimador de MCO;
segundo, el test de Máxima Verosimilitud para el conjunto de ecuaciones. La hipótesis
nula de este test es el que el sistema tiene un número i de rezagos versus la alternativa
de que este número es j + r . El estadístico seria:
{ T - C } * { log |i| - log | i + r |}
donde
log |i|=logaritmo del determinante de la matriz de varianzas y covarianzas para el modelo
con i rezagos.
T = Número de observaciones.
C = Parámetros del modelo no restringido en cada ecuación:
{12 (j + r) +1}
Este test se distribuye 2 con grados de libertad igual al número de restricciones en el
sistema {4 ( i + r ) 2}. Este test tiene poco poder para rechazar test sucesivos de
restricción de rezagos; por ello el rezago referencial debe ser el de mayor valor en el
sistema, es decir, cualquier hipótesis nula debe ser contrastada contra el rezago ( i + r ).
No se debe utilizar el test “ t” ni dar importancia a los signos de los coeficientes, ya que
existe una gran multicolinealidad entre las variables de cada ecuación. La magnitud de los
coeficientes es un indicador relativo de la significancia de la variable (un coeficiente
pequeño generalmente acompaña a una variable poco significativa).
Nótese que una de las desventajas del uso de este modelo es que su estimación implica
calcular m2p coeficientes, sin considerar los de la matriz 2.
Una forma alternativa de representación VAR consiste en hacer depender el vector de
valores actuales de las variables del valor actual y los infinitos rezagos del vector de
errores:
(5) Yt=
j
1
i Li Yt + t
(6) [ I -
j
P
i Lj] Yt = t
(7) A(L)Yt = t
(8) Yt = t / A(L)
(9) Yt = + t +1 t-1 +2 t-2 + .…
donde ( 9 ) es una representación MA ( ).
Esta representación puede ser transformada de tal forma que los valores actuales sean
una función de los valores presentes y pasados de un vector de innovaciones
ortogonales: como los errores (5) no tienen porque estar correlacionados, se acostumbra
premultiplicar dicha ecuación por la única matriz triangular (T) , con unos en la diagonal
principal, que diagonaliza la matriz de covarianzas del error. Así, se obtiene un nuevo
modelo con errores ortogonales:
TYt = T
i
P
1
i Yt-1 + t
donde: t = Tt es el vector de las innovaciones ortogonalizadas, y D = TT. Es decir, para
cada matriz real, simétrica y definida positiva existe una única matriz triangular P con
unos en la diagonal principal y una única matriz diagonal D con entradas positivas en la
diagonal, tal que : = PDP´.
Si se requiere obtener un nuevo modelo con errores ortogonales, bastará con hacer T =
P-1, de forma tal que:
E(t´t) = [ P-1] E ( t ´t) [P-1]
= [P-1][P-1
= [P-1]PDP´[P´]-1
E(t´t) = D
Donde D, la matriz de varianzas y covarianzas de los errores transformados, es una
matriz diagonal que garantiza su ortogonalidad. A partir de este modelo transformado se
pueden obtener las interacciones dinámicas estimadas: la función de impulso-respuesta
ortogonalizada, calculando el efecto sobre Yt+s de un impulso unitario t+s ; y de
descomposición de la varianza del error de predicción, los cuales serán materia de
discusión en las secciones siguientes.
Especificación del Sistema VAR.
En la práctica es frecuente la existencia de más de dos variables endógenas y muchas
veces más de un rezago. El modelo de Autorregresión Vectorial con tres rezagos para
cada una de las 2 variables endógenas e incluyendo la constante sería:
Y = 0 + 1Yt- 1 + 2Yt-2 + 3Yt-3 + 4 Xt-1 + 5 Xt-2 +6 Xt-3 + 1.
X = 1 + 13Yt- 1 + 14Yt-2 + 15Yt-3 + 16 Xt-1 + 17 Xt-2 +18 Xt-3 + 2.
Hemos considerado el sistema en términos lineales (el sistema también puede escribirse
en términos del operador de retardos L), a fin de tener una expresión convergente para
las variables endógenas en términos de las innovaciones ( 1, 2,):
Yt = A1Yt-1 + ………+ApYt-p + t
Y1t = -1[(1-nnL)1t + 1nL2t+…..nnLnt]
Para el caso de un modelo, con 2 variables endógenas: Yt, Xt, y 3 rezagos para cada una
de ellas, la primera ecuación sería:
Yt = 1 +
j
1
3
j Yt-j +
j
1
3
j Xt-j + 1
Xt = 2 +
j
1
3
jYt- j+
j
1
3
jXt-j+ 2t
Estimación y Calibrado Econométrico VAR.28
Desde una perspectiva Bayesiana, el problema de estimación consiste en obtener una
estimación de los coeficientes partiendo de la distribución de los mismos y la nueva
información incorporada en el vector de observaciones de las variables endógenas. La
estimación se completa cuando se han procesado todas las observaciones muéstrales de
acuerdo con las ecuaciones de actualización, obviamente, llevar a término el proceso
requiere especificar el sistema VAR , así como la distribución que debe ser interpretada
como condicional en la historia premuestral. Un principio básico de esta metodología es
evitar a priori exclusiones injustificadas de variables; de otro lado, la introducción de
coeficientes que dependen del tiempo tiene como objetivo capturar posibles no
linearidades en el vector estocástico modelado.
28 Para una exposición más detallada ver J.Hamilton : “Time series analisys” (1994), Princeton University Press.
Los coeficientes estimados de un VAR son difíciles de interpretar. Por causa de esto es
muy probable observar en la función de impulso-respuesta y de descomposición de la
varianza del sistema, ciertas implicaciones acerca del VAR .
Teóricamente, en cada ecuación el coeficiente de la propia variable rezagada tendrá una
media inicial de 1, y todos los demás tendrán una media inicial de 0, con la varianza de la
variable a priori disminuyendo a medida que aumenta la longitud del rezago. Al aumentar
la longitud del rezago, disminuye la varianza; es decir, cada vez es mayor la certeza de
que el coeficiente es cero. Para todos los demás coeficientes, dicho valor inicial será de 0
y los valores iniciales de los coeficientes rezagados se concentrarás más en torno a cero.
Como el objetivo de la modelación VAR es el estudio de las interacciones dinámicas de
diferentes tipos de perturbaciones y controles fortuitos, y de hecho, los usos típicos de
esta modelación reflejan esta motivación, se pasará al análisis de las funciones impulso-
respuesta y de la descomposición de la varianza ,a fin de realizar evaluación de políticas
y el análisis del poder predictivo del sistema, tópicos que se describen en las siguientes
secciones del artículo.
Función Impulso-Respuesta.
Esta función es simplemente la representación de medias móviles asociada con el modelo
estimado y explica la respuesta del sistema a shocks en los componentes del vector de
perturbaciones . La función impulso-respuesta traza la respuesta de las variables
endógenas en el sistema ante un shock en los errores. Un cambio en 1 cambiaría
inmediatamente el valor de Y . Ello además cambiaría todos los valores futuros de las
demás variables endógenas del sistema, debido a la estructura dinámica del sistema.
En una función mpulso-respuesta , separa los determinantes de las variables endógenas
dentro de los shocks o identifica innovaciones con variables específicas. Entonces, traza
el efecto corriente y valores futuros de las variables endógenas ante un “shock” de una
desviación estándar a las innovaciones (variables estocásticas).
Si todos los componentes estocásticos de nuestro sistema VAR son incorrelativos, la
interpretación es directa, 1 es la innovación Y , 2 es la innovación X, y así
sucesivamente. Una función impulso-respuesta para 2 mide el efecto de una desviación
estándar ante un shock en X actual y futuro para las variables endógenas.
Por desgracia, este no es casi nunca el caso pues los errores son totalmente
incorrelativos. Cuando los errores se correlacionan, ellos tienen un componente común el
cual no puede ser identificado con cualquier variable específica. Un método algo arbitrario
de negociación con este problema es atribuir todo el efecto a cualquier componente
común a la variable, aquel que venga primero en el sistema VAR. En nuestro sistema, el
componente común de 1 y 2 es totalmente atribuido a 1, porque 1 precede a 2; 1 es la
innovación Y y 2 es la innovación X transformado o removido el componente común.
Más técnicamente los errores son ortogonalizados por una descomposición Choleski, así
la matriz de covarianza resultante es triangular inferior (los elementos por encima de la
diagonal principal son cero). La descomposición Choleski es extensamente usada, es un
método un poco arbitrario de atribución de efectos comunes. Cambiando el orden de las
ecuaciones, se puede cambiar dramáticamente las funciones impulso-respuesta, hay que
tener cuidado con las interpretaciones de estas funciones.
Descomposición de la Varianza del error de predicción.
La descomposición de la varianza de un VAR brinda información acerca de la potencia
relativa de innovaciones aleatorias para cada variable endógena. Este ejercicio consiste
en descomponer la varianza de las variables endógenas en componentes que permitan
aislar el porcentaje de variabilidad de una endógena explicado por una de las
innovaciones para distintos horizontes predictivos. Tal descomposición se obtiene luego
de “ortogonalizar” el vector de perturbaciones ,que consiste en distribuir la responsabilidad
de las correlaciones reflejadas en la matriz de covarianza entre los distintos componentes
del vector de perturbaciones. La intensión al hacer explícita esta conexión entre el modelo
originalmente estimado y el obtenido, es clarificar que el modelo obtenido una vez
realizada la ortogonalización, no es una forma reducida, sino una forma estructural; y que
por tanto, el proceso de ortogonalización es de hecho una forma de identificación. De esta
manera se pueden calcular las contribuciones de las innovaciones sobre el error de
predicción del período siguiente. Es de esperar que en el corto plazo la propia innovación
explique la mayor proporción de este error.
Evaluación de política y análisis del poder predictivo de un sistema VAR.
Uno de los objetivos finales de la Econometría y tal vez el que le dé mayor uso potencial,
es la evaluación de políticas . Este objetivo se refiere a una situación en la cual los que
realizan la toma de decisiones deben elegir una política, denominada “plan”, a partir de un
conjunto de políticas alternativas dado. La evaluación de políticas esta íntimamente
relacionada con la predicción y, al igual que la predicción, se asumirá que la elección de
políticas es cuantitativa, explícita e inequívoca. De hecho, la predicción y la evaluación de
políticas están interrelacionadas dentro de un sistema de retroalimentación: un pronóstico
debe estar basado, en parte, en supuestos concernientes a la elección de quienes toman
decisiones relevantes. A la inversa, la evaluación de políticas debe estar fundamentada,
también en parte, sobre predicciones de los efectos de las distintas políticas alternativas.
De esta manera el cálculo de las funciones impulso-respuesta y de descomposición de la
varianza, sugieren las mismas interacciones dinámicas. Estas desviaciones fueron
calculadas mediante un ejercicio de Montecarlo (bajo el supuesto que los errores tienen
una distribución normal) utilizando la distribución a posteriori del operador autorregresivo.
El método de Montecarlo es la única vía practicable para este cálculo dada la relación no
lineal que existe entre las representaciones autorregresiva y de medias móviles.
Vectores Autorregresivos y Cointegración.29
Existe una relación simple entre la técnica de Vectores Autorregresivos y la Cointegración
. Si las raíces características (eingenvalor) de la matriz de coeficientes del VAR son
iguales a la unidad, las series de ambas son integrales de primer orden, pero no
cointegrales ; si precisamente el número de raíces es uno, las series son cointegrales. Si
ninguna de las raíces es unitaria, las raíces son estacionarias, de tal forma que no son
integrales ni cointegrales.
¿Cómo se encuentra la relación cointegrable a partir del modelo VAR? El procedimiento
es el siguiente: encontrar las raíces características (eigenvalores) ; después,
correspondiendo a cada raíz, encontrar el vector característico; luego construimos una
matriz con los vectores característicos obtenidos e invertimos dicha matriz, entonces, las
columnas de esta matriz dan las combinaciones lineales requeridas .En la práctica es
necesario probar las raíces unitarias. Esto se lleva a cabo por medio de la metodología de
Johansen desarrollada en su obra: “Statistical Analysis of Cointegration Vectors”(1991).
29 Ver Gustavo Trujillo C, “Demand Money in Peru: a Methodology Cointegrations Test” , Thesis Msc - Virginia Polytechnic
Institute and State University.
Test de Cointegración en un Sistema VAR.
Un grupo de series de tiempo esta cointegrado si es que existe una combinación lineal
estacionaria y dicha combinación no tiene una tendencia estocástica. La combinación
lineal es llamada “ecuación de Cointegración”. Su interpretación normal es a largo plazo,
estudiando las relaciones de equilibrio a largo plazo. Si tenemos “n” variables endógenas,
cada una integral de primer orden (esto es, cada una con raíz unitaria o tendencia
estocástica o con elementos de camino aleatorio), los cuales pueden ir desde cero a n-1
con vectores cointegrados linealmente independientes, si esto no se cumple, se tendrían
que aplicar primeras diferencias a la muestra hasta lograr su estacionariedad.
El test de Johansen determina el número de ecuaciones de Cointegración. Este número
es llamado “rango de Cointegración”. Si hay n ecuaciones de Cointegración , las medias
de las series están integradas actualmente y el VAR puede reformularse en términos de
niveles de todas las series. El test aumentado de Dickey-Fuller (ADF) muestra que
algunas de las series son integradas, pero el test de Johansen muestra que el rango de
Cointegración es “n”. Esto una secuencia de modelos anidados , los modelos más
restringidos, con el menor número de parámetros, no poseen ecuación de Cointegración,
este es un VAR irrestricto en primeras diferencias. Cada ecuación de Cointegración añade
parámetros asociados con el término de envolvencia de niveles para las series que se
añade a cada ecuación. El test de Johansen procura computar el ratio estadístico de
verosimilitud (likelihood ratio) para cada ecuación de Cointegración añadida . Este test no
tiene una distribución chi-cuadrado usual; la contrastación de estos estadísticos se debe
realizar apatir de las tablas de Johansen y Juselius (1990) :
99% 95% 90%
TRACE
H0:r = 0
H1:r > 0
56.786 35.068 32.093
H0:r = 0
H1:r > 1
18.123 20.168 17.957
H0:r < 1
H1:r > 2
3.306 9.094 7.563
MAX
H0:r = 0
H1:r = 1
56.786 21.894 19.796
H0:r = 1
H1:r = 2
14.123 15.252 13.781
H0:r = 2
H1:r = 3
3.306 9.094 7.563
Metodología de Johansen (1991).
La especificación de esta metodología se basa en una generalización multivariada del
procedimiento de Dickey y Fuller. Si Xt es un vector de n variables que siguen un proceso
AR(1):
Xt = AtXt-1 + t
Entonces, restando Xt-1 en ambos lados de la ecuación se obtiene:
Xt = AtXt-1 - Xt-1 + t = (At- 1 ) Xt-1 + t = Xt-1 + t
Si es una matriz de ceros de tal forma que ()=0, entonces todas las variables son
proceso con raíz unitaria (Xt = t ) y no hay combinaciones lineales estacionarias de Xt,
entonces las variables no cointegran. Si () = , entonces todas las variables son
estacionarias.
Como el Dickey-Fuller aumentado (ADF) se puede generalizar, el modelo para un proceso
de mayor orden se obtendría reparametrizando de la siguiente manera:
Xt = A1Xt-1 + A2Xt-2 + … + t
restando Xt-1 de ambos lados: Xt = ( A1 - I ) Xt-1 + A2Xt-2 + … + ApXt-p + t
sumando y restando ( A1 - I )Xt-2 a la derecha:
Xt = (A1 - I )Xt-1 + (A2 + A1 -I)Xt-2 + A3Xt-3 + …+ApXt-p + t
sumando y restando (A2 + A1 - I)Xt-3 a la derecha:
Xt =(A1- I )Xt-1+(A2 + A1 -I )Xt-2+(A3+ A2+ A1 -I )Xt-3 +…+ApXt-p + t
Sumando y restando sucesivamente se obtiene el algoritmo: Xt =
i
P
1
Xt-1 + Xt-p + t
,
donde = -[ I -
i
P
1
Aj ] ;
Esta es la fórmula general, que no es otra cosa que el llamado Modelo de Corrección de
Errores (MCE), en el que el ajuste se produce con “p” rezagos. Así note que el término de
corrección hacia la relación de largo plazo es Xt-p, es decir un ajuste de dicha relación en
el período t-p tiene efectos “p” períodos después. Esto lleva a que en general la
especificación de este modelo tenga más bien un “p” bajo, ya que de otra forma la
corrección del error tendría poco significado económico.
Dado que la determinación del número de vectores de Cointegración depende del rango
de y, por ende, del número de raíces características distintas de cero de dicha matriz,
se requiere utilizar un test para verificar dicho número. Si se tienen las “n” raíces de la
matriz (i ) donde 1 >2>…>n, se puede plantear dos test:
( 1 ) Ho : el número de vectores de Cointegración es r
TRACE ( R ) = - T
i r
n
 
1
Ln ( 1- i ) , cuanto mayor número de s sean iguales a cero, menor
será el TRACE..
(2) Ho : número de vectores de Cointegración = r.
(3) H1 : número de vectores de Cointegración = r + 1.
Test de Cointegración de Johansen
Tal como de menciono, este es un test de Cointegración muy usado con variables no
estacionarias (series que presentan una clara inclinación a permanecer por encima o por
debajo de su valor central en la muestra). El número de los vectores cointegrantes
distintos entre sí pueden obtenerse chequeando la significancia de las raíces
características (eigenvalue), sabiendo que el rango de la matriz es igual al número de sus
raíces características diferentes de cero. El test de Johansen nos permite determinar la
existencia de parámetros cointegrantes (ajuste a largo plazo) con sus respectivas
“velocidades de ajuste” indicadas por los coeficientes de las variables cointegrantes. A
continuación, se utiliza la metodología del Modelo de Corrección del Vector de Error
(VEC) para tener garantía de que el VAR contiene variables cointegradas.
La hipótesis que se plantea en este test es la siguiente:
H0 = No existe Cointegracion.
H1 = Existe Cointegracion.
La idea es que al efectuar la prueba de Cointegracion, se rechaze estadísticamente la
hipótesis nula de No Cointegracion lo cual asegura que tanto los signos y los valores de
los parámetros esten acorde con la teoria economica y que la ecuación testeada se
aproxime a su correcta especificación dinamica de largo plazo, lo cual asegura tambien
que los estimadores de MCO de los parámetros de Cointegracion convergan asus valores
de largo plazo mas rapidamente que con variables estacionarias.
Metodología del Modelo de Corrección del Vector de Error (VEC) en un VAR.
Como discreción próxima, el modelo VEC es un VAR restringido diseñado para series no
estacionarias que sabemos se pueden cointegrar. La especificación VEC restringe la
conducta a largo plazo para las variables endógenas para que converjan a sus relaciones
de Cointegración, mientras que permitimos un extenso rango dinámico de corto plazo.
Como la especificación VEC sólo se aplican a series cointegradas, este se debe llevar a
cabo una vez que ha pasado por el test de Cointegración de Johansen como una
especificación VEC. Esto nos permite confirmar que las variables son cointegradas y así
determinar el número de ecuaciones de Cointegración usando el procedimiento de
Johansen. La primera diferencia para cada variable endógena es regresionada con un
período de rezago en la ecuación de Cointegración y los primeros rezagos diferenciados
en todas las variables endógenas es guiado por desequilibrios percibidos y asegura una
eventual convergencia a la posición de equilibrio de largo plazo. Se pone de manifiesto
otra de las características de las ecuaciones dinámicas: diferentes clases de ajustes
realizados , por lo que un Vector de Corrección de Error (VEC) es un tipo de estructura
VAR cointegrada. Para examinar mejor la estructura, consideremos un esquema que
tenga media y que la ecuación de Cointegración tenga intercepto, especificando el VEC:
Y1,t = 1 + 0 (Y2,t-1 - - Y1,t-1) + 1,t
Y2,t= 2 + 1 ( Y2,t-1 - -Y1,t-1) + 2,t
Aquí los interceptos de las ecuaciones están fuera del paréntesis, correspondiendo a una
tendencia lineal.
VI. Conclusiones
La metodología de Cointegración ofrece un procedimiento que cumple con varias
características importantes: a) permite distinguir entre regresiones espurias y regresiones
válidas, en el sentido que representan una relación estable de largo plazo entre las
variables, con mecanismos de ajuste que tienden a disminuir las discrepancias que se
presenten; b) permite combinar la metodología de series de tiempo con información de
teorías económicas de equilibrio de largo plazo, con lo cual se eliminan muchas de las
objeciones que se hacen a cada una de estas metodologías tomadas por separado; c)
permite la mezcla de información de distinta periodicidad, por ejemplo, la ecuación de
Cointegración podría hacerse con datos anuales y la de corrección de errores con
información mensual30 ; d) es relativamente fácil de aplicar, su uso consiste en la
estimación de varias ecuaciones por mínimos cuadrados ordinarios, la dificultad principal
30 Engle, Granger y Hallman (1989) traen un ejemplo de esto, aplicado a proyecciones de demanda de energía eléctrica.
estriba en la teoría estadística que esta por detrás de las pruebas, teoría que es mucho
más difícil que la teoría usual.
Uno de los problemas básicos al que uno se enfrenta al instrumentalizar la metodología
VAR, es el de la rápida desaparición de los grados de libertad del modelo a medida que
se incrementa la longitud de rezago. Para superar este inconveniente, se sugiere la
estimación Bayesiana (BVAR). En este método se asignan distribuciones a priori a los
coeficientes de las autorregresiones vectoriales para permitir que el análisis transcurra en
un marco gaussiano.
La introducción de coeficientes que dependan del tiempo tiene como objetivo capturar
posibles no linearidades en el vector estocástico modelado. Tal asignación puede
realizarse mediante un proceso más o menos elaborado de búsqueda guiada por algún
criterio de bondad de ajuste. Con respecto a la ley de movimiento de los coeficientes, se
especifica algo cercano al “paseo aleatorio” (Random Walk) con un término de error cuya
variabilidad es sensiblemente inferior a la introducida para los propios coeficientes. (esta
ley de movimiento intenta reflejar la opinión de que demasiada variabilidad en los
coeficientes tiende a empeorar los resultados obtenidos con el modelo. La experiencia
respalda esta opinión).
El esquema de ortogonalización utilizado en esta metodología VAR es el denominado
esquema de Choleski 31. Este esquema especifica una matriz A0 triangular inferior con
unos en la diagonal principal. En este caso, la solución al problema de maximización es
inmediata, puesto que con diagonal existe una única manera de expresar una matriz
positiva definida en la forma A00, por lo que la solución es única. En general, sin
embargo, en aras de un mayor realismo, el analista encuentra conveniente apartarse de la
cadena de Wald que implica el esquema Choleski especificando estructuras para A0
distintas de la triangular. Sin embargo, el modelo obtenido una vez realizada la
ortogonalización no es una forma reducida sino una forma estructural; y que, por tanto, el
proceso de ortogonalización es de hecho una forma de identificación.
Los modelos tipo VAR han alcanzado una considerable aceptación como herramientas de
predicción, cuyo objetivo es a partir de series temporales interpretar o diseñar
conclusiones de política económica, incluso aplicables a modelos no lineales de equilibrio
general. De hecho en la práctica usual de los predictores que usan VAR no es un enfoque
31 C. Sims (1980)
completamente bayesiano, pero puede interpretarse como aproximación al tratamiento
ideal. A pesar de que este entorno general no es en esencia bayesiano, se pretende
implementar a futuras extensiones el pleno tratamiento subjetivista bayesiano. El modelo
planteado aquí, pretende facilitar la comunicación científica e indirectamente la toma de
decisiones.
Vale la pena observar que “añadir variabilidad temporal” al sistema VAR no mejora
automáticamente su comportamiento predictivo. Bajo algunas consideraciones del resto
del modelo, el ajuste se maximiza a tasas muy bajas de variabilidad temporal 32, y forzar
variabilidad temporal en el modelo sin comprobar si mejora el ajuste puede generar
importantes deterioros en el comportamiento predictivo, ya que se supone una mayor
varianza de las perturbaciones siguiendo a períodos con mayores errores de predicción .
Esto es similar a la especificación GARCH33 pero difiere en que, lo que se supone que
afecta a las varianzas de las perturbaciones son los errores de predicción reales
generados por el filtro de Kalman, más que los errores de predicción ideales que se
obtendrían si los parámetros fueran conocidos exactamente (como en modelos GARCH).
Incorporar covarianzas cruzadas de shocks en el análisis de las funciones impulso-
respuesta, de una forma conceptual y computacionalmente factible es un importante tema
abierto de investigación. Este aspecto se conecta con la crítica de “econometría no
teórica” a los modelos VAR , ya que no emplean ninguna teoría económica, y con el
exceso de parámetros a estimarse. Sims (1991) critico los modelos tradicionales de
ecuaciones simultáneas sobre la base de que descansan sobre restricciones específicas
en los parámetros, para lograr la identificación.
Según la metodología de Cointegración en sistemas VAR de Johansen, se rechaza la
hipótesis nula de no Cointegración según los valores críticos de la tabla de Johansen &
Juselius (1991). Los valores y signos de los parámetros estimados están acorde con la
teoría económica, las ecuaciones se acercan a la correcta especificación de largo plazo, y
los estimadores MCO de los parámetros de Cointegración convergen a sus valores de
largo plazo más rápidamente que con variables estacionarias.
La metodología esta todavía en desarrollo, hace falta bastante trabajo, por ejemplo, en la
estimación de modelos de ecuaciones simultáneas, donde falta la teoría de distribución, la
32 Véase: Doan, Litterman y Sims (1984).
33 Véase, por ejemplo, Engle (1982).
cual parece ser sumamente complicada; lo mismo sucede con el análisis de Cointegración
no lineal.
En resumen se trata de una teoría que parece muy adecuada para una buena cantidad de
problemas que se presentan en economía.
BIBLIOGRAFÍA
ANDERSON,T.W. y C.SHIAO (1981): “ Estimation of dynamic models with error
components”. Journal of American Statistical Association. # 76, págs 598-606.
BOX,G.E.P y G.M.JENKINS (1970): “Time series analysis,forecasting and control”. San
Francisco, Holden day. Págs. 87.
DICKEY,D.A y W. FULLER (1984): “Testing for unit roots in seasonal time series”. Journal
of the American Statistical Associations, # 79, págs. 355-367.
ENGLE,R. y W.GRANJER (1987): “Cointegration and error correction representation,
estimation and testing”. Econometrica # 55. Págs 251-276.
GRANJER,C. y P.NEWBOLD (1974): “Spurious regressions in econometrics”. Journal of
econometrics # 2. Págs 111-120.
HENDRY, DAVID and RICHARD , JEAN FRANCOIS . (1983): “The econometric analysis
of economic time series”, International Statistical Review, N° 51 , 1983.
ROTHENBERG,T.J. y C.T.LEENDERS (1964): “Efficient estimation of simultaneous
equations systems”. Econometrica # 32, págs 57-59.
SARGAN,J. y A.BHARGAVA. (1983):”Testing residuals from least squares regression for
being generated by the Gaussian random walk” . Econometrica # 51, págs 153-174.
SALKEVER, F, KENNETH. (1972): “The use Dummy variables to compute predictions
error, and confidence intervals.”. Journal of econometrics # 4, ,págs 393-397.
SIMS, CHRISTOPHER:
(1980): “Macroeconomics and reality”, Econometrica # 48, January. Págs 165-192.
(1986): “Are forecasting models usable for policy analysis?. Federal Reserve Bank of
Minneapolis, Quarterly Review Winter. Págs 154.
(1987): “Identifying policy effects”. Federal Reserve Bank of Minneapolis Research
Department. Working paper 351. May. Págs 145.
(1991): “Macroeconometrics: A explanation”. Federal Reserve of Minneapolis. Págs 142.
TRUJILLO CALAGUA, GUSTAVO H :
(1998) “Un modelo econométrico para el Perú sobre la dinámica del desequilibrio fiscal y
el proceso inflacionario en el período 1985-1995: Aplicación de la técnica de Vectores
Autorregresivos”, Tesis de Licenciatura .
(1999) “Demand money in Peru: a Methodology Cointegration Test”, Tesina VPISU - USA.
(2003) “Econometría Aplicada con Eviews 4.1”, 1era Edición
Trabajo enviado por:
Gustavo Herminio Trujillo Calagua,
Economista de la Universidad Nacional Federico Villareal Lima-Perú. Maestría en
Economía Matemática y Doctor en Economía por Virginia State University, Blacksburg
USA.
Consultor de Negocios.
Profesor Asociado de la Escuela de Ingeniería Económica de la Universidad Científica del
Sur, Lima-Perú.
Profesor Auxiliar de la Escuela de Administración de la Universidad Privada San Pedro,
Cajamarca-Perú.
Profesor Auxiliar de la Escuela de Economía de la Universidad Nacional de Cajamarca,
Cajamarca-Perú.
LA METODOLOGÍA DE LAS RAÍCES UNITARIAS, COINTEGRACIÓN , VECTORES
AUTORREGRESIVOS Y ESTABILIDAD DE PARÁMETROS:
APORTADO POR: Gustavo Herminio Trujillo Calagua

Compártelo con tu mundo

Cita esta página
Trujillo Calagua Gustavo Herminio. (2004, abril 6). Cointegración en el análisis econométrico de series de tiempo. Recuperado de http://www.gestiopolis.com/cointegracion-en-el-analisis-econometrico-de-series-de-tiempo/
Trujillo Calagua, Gustavo Herminio. "Cointegración en el análisis econométrico de series de tiempo". GestioPolis. 6 abril 2004. Web. <http://www.gestiopolis.com/cointegracion-en-el-analisis-econometrico-de-series-de-tiempo/>.
Trujillo Calagua, Gustavo Herminio. "Cointegración en el análisis econométrico de series de tiempo". GestioPolis. abril 6, 2004. Consultado el 31 de Julio de 2015. http://www.gestiopolis.com/cointegracion-en-el-analisis-econometrico-de-series-de-tiempo/.
Trujillo Calagua, Gustavo Herminio. Cointegración en el análisis econométrico de series de tiempo [en línea]. <http://www.gestiopolis.com/cointegracion-en-el-analisis-econometrico-de-series-de-tiempo/> [Citado el 31 de Julio de 2015].
Copiar
Imagen del encabezado cortesía de ccordova en Flickr