Cointegración en el análisis econométrico de series de tiempo

  • Economía
  • 56 minutos de lectura
Este trabajo tiene por objeto introducir un desarrollo importante en el análisis econométrico de series de tiempo en una forma relativamente elemental. Con este fin se enfatiza la utilización práctica de la metodología y su aplicación al análisis de algunos problemas relevantes para la discusión sobre política económica en Perú. La presentación se hará en seis secciones. En la introducción se hace una justificación de la metodología de Cointegración en términos de los así llamados problemas de “regresión espuria” y de “especificación dinámica”, así como una respuesta de la Econometría como corroboración de relaciones teóricas al enfoque de series de tiempo.
la-metodologia-de-las-raices-unitarias-cointegracion-vectores-autorregresivos-y-estabilidad-de-parametros
La segunda se concentra en el concepto de nivel de  integración de una serie y en la prueba estadística de su representación como un proceso estacionario o no. En la tercera sección se presenta la metodología de la Cointegración propiamente dicha y su representación como un mecanismo de corrección de error. En la cuarta sección se ilustra esta técnica mediante la presentación de una aplicación estimada para  el caso peruano. Cabe la pena mencionar que los resultados aquí expuestos no contienen resultados definitivos sobre los problemas tratados, más bien constituye una exploración preliminar del tema que debe considerarse como ilustraciones de la metodología presentada. En la quinta sección se presenta la metodología de los Vectores Autorregresivos y su instrumentalización, analizando las funciones de impulso-respuesta y de descomposición de la varianza; igualmente se analiza los Test de Cointegración para sistemas VAR y su uso como  evaluador de la política económica. Finalmente, se exponen las conclusiones derivadas del estudio, las mismas que constituyen solo una aproximación exploratoria al tratamiento de las series de tiempo.

Este trabajo tiene por objeto introducir un desarrollo importante en el análisis econométrico de series de tiempo en una forma relativamente elemental. Con este fin se enfatiza la utilización práctica de la metodología y su aplicación al análisis de algunos problemas relevantes para la discusión sobre política económica en Perú. La presentación se hará en seis secciones. En la introducción se hace una justificación de la metodología de Cointegración en términos de los así llamados problemas de “regresión espuria” y de “especificación dinámica”, así como una respuesta de la Econometría como corroboración de relaciones teóricas al enfoque de series de tiempo. La segunda se concentra en el concepto de nivel de  integración de una serie y en la prueba estadística de su representación como un proceso estacionario o no. En la tercera sección se presenta la metodología de la Cointegración propiamente dicha y su representación como un mecanismo de corrección de error. En la cuarta sección se ilustra esta técnica mediante la presentación de una aplicación estimada para  el caso peruano. Cabe la pena mencionar que los resultados aquí expuestos no contienen resultados definitivos sobre los problemas tratados, más bien constituye una exploración preliminar del tema que debe considerarse como ilustraciones de la metodología presentada. En la quinta sección se presenta la metodología de los Vectores Autorregresivos y su instrumentalización, analizando las funciones de impulso-respuesta y de descomposición de la varianza; igualmente se analiza los Test de Cointegración para sistemas VAR y su uso como  evaluador de la política económica. Finalmente, se exponen las conclusiones derivadas del estudio, las mismas que constituyen solo una aproximación exploratoria al tratamiento de las series de tiempo.

  1. Introducción.

Es muy conocido que una gran parte de los procedimientos normalmente utilizados en Econometría están basados en regresiones lineales con muy diversas modificaciones; estos procedimientos tienen propiedades adecuadas si se cumplen ciertas suposiciones; la suposición que será modificada en este artículo es la de la estacionariedad de las series que entran en la relación que se desea estimar.

Una serie de tiempo es estacionaria si su distribución es constante a lo largo del tiempo; para muchas aplicaciones prácticas es suficiente considerar la llamada estacionariedad débil, esto es, cuando la media y la varianza de la serie son constantes a lo largo del tiempo. Muchas de las series de tiempo que se analizan en Econometría no cumplen con esta condición, cuando tienen una tendencia.

Desde hace mucho tiempo[1] se conoce que cuando no se cumple esta suposición se pueden presentar problemas serios, consistentes en que dos variables completamente independientes pueden aparecer como significativamente asociadas entre sí en una regresión, únicamente por tener ambas una tendencia y crecer a lo largo del tiempo; estos casos han sido popularizados por Granger Y Newbold (1974) con el nombre de “regresiones espurias”[2].

Para ilustrar este problema se pueden considerar dos variables X y Y, construidas  construidas en cada período sumando el valor de la variable en el período anterior una variable aleatoria con distribución normal, con media cero y una cierta varianza:

Xt = Xt-1 + et            et ~ N ( 0 , se2 ).

Yt = Yt-1 + ht            ht ~ N ( 0 , sh2 ).

y generando en forma independiente los términos aleatorios de las dos variables. Variables construidas de este modo reciben en la literatura econométrica de series de tiempo el nombre “paseo aleatorio” y son variables no estacionarias, cuya media y cuya varianza son proporcionales al período de observación.

Generando las variables de acuerdo con este modelo para 240 observaciones con varianza 2 y 3 para et  y ht  y  con valores iniciales  de 1000 para X  y de  12500 para Y se obtienen dos series independientes por construcción pero con una tendencia creciente en el tiempo; haciendo una regresión lineal entre las dos se encuentra:

Xt = -20560 + 1.7270 Yt                         R2 = 0.4903            D-W = 0.07695

(-14.28)   (15.01)

Una interpretación muy común de este resultado sería que las variables están significativamente asociadas pero que el bajo valor del R2 sugiere que a la ecuación le faltan variables adicionales, la ausencia de las cuales a su vez explica el bajo valor del coeficiente de Durbin – Watson; otra explicación podría ser  la de que la estructura dinámica de la ecuación no es la correcta y podría tratar de  corregirse utilizando rezagos de las variables, introduciendo otras variables con rezagos o utilizando técnicas de estimación de mínimos cuadrados generalizados para tener en cuenta la autocorrelación de los residuos de la ecuación. Se recuerda que las variables son independientes pero crecientes en el tiempo.

Este es un resultado muy frecuente, el ejemplo anterior es una ilustración de la técnica del análisis de simulación llamada de “Montecarlo”. Esta técnica fue utilizada por Granger y Newbold[3]  para estudiar las propiedades de regresiones entre variables no estacionarias. Recientemente[4] se ha realizado un análisis teórico del problema, en el cual se muestra que, bajo ciertas condiciones muy generales, las principales propiedades de las regresiones

Xt = a + bYt

entre variables no estacionarias son las siguientes:

  • Las distribuciones de los estadísticos “t” de los coeficientes divergen, de modo que no existen valores críticos asintóticamente correctos para las pruebas de significancia. Los valores mencionados crecen con el tamaño de la muestra. Para recordar, en el caso de regresiones entre variables estacionarias, las distribuciones de los estadísticos “t” convergen a una distribución normal y, por lo tanto, no hay una tendencia a que crezcan con el tamaño de la muestra.
  • Los coeficientes no son consistentes; a*, el estimador MCO de a diverge y  b*, el de b, converge a una distribución no concentrada en un punto. Para comparar, en el caso de regresiones entre variables estacionarias, las distribuciones de los coeficientes  a* y  b* convergen a una distribución que concentra toda la probabilidad en el verdadero  valor de los parámetros.
  • El estadístico de Durbin-Watson tiende a cero, aún cuando el término aleatorio de la regresión no presente autocorrelación y la distribución de R2 converge a una distribución no concentrada. Todo esto en contraste con los resultados usuales para variables estacionarias [5].

Resultados similares se obtienen en el caso de regresiones múltiples[6].

Estos resultados hacen que sean sospechosas las estimaciones de ecuaciones de regresión entre series no estacionarias. Las primeras recomendaciones de Granger y Newbold[7], seguidas posteriormente por muchos analistas, fueron las de usar valores de significancia más restrictivos para los estadísticos “t”, lo cual como se vio no tiene justificación teórica ya que los “t” crecen con el tamaño de la muestra; o la de  convertir las series en estacionarias, ya sea por medio de diferenciaciones, por extracción de una tendencia lineal, exponencial o polinómica o usando como variables en las regresiones los residuos de una estimación de un modelo ARIMA para las series originales, esto hace que se pierda información sobre las relaciones de largo plazo de las variables, relaciones que son, en muchos casos, el objeto primordial del análisis. Por lo tanto las primeras recomendaciones de Granger y Newbold no son adecuadas para tratar el problema; `mucho mejor es el  programa de encontrar procedimientos que muestran cuándo la relación encontrada entre las variables es “espuria” o no, y en el caso de que no lo sea, cuáles son las propiedades estadísticas de los parámetros estimados.

Recientemente se ha dedicado mucho esfuerzo al análisis de las propiedades de ecuaciones de regresión con variables más generales que las estacionarias, pero con algún tipo de restricción a su distribución. Un caso particular de las variables no estacionarias es el de las llamadas variables integradas.

Se dice que una serie de tiempo Xt es integrada de orden d ( Xt  ~I(d) ) si puede expresarse como:

( 1 – L )d A( L )Xt = B ( L ) et

donde L es el operador de rezago: LXt = Xt-1 , A(L) es un polinomio de orden p en L que expresa el grado de autorregresión de la serie:

A(L)Xt = Xt – a1Xt-1 – a2Xt-2 – … – apXt-p

B(L) es un  polinomio de orden q en L que expresa la dependencia de las series en un promedio móvil de una serie de términos aleatorios independientes:

B(L)et = et – b1et-1 – b2et-2 – … – bqet-q

y tanto A(L) como B(L) tienen todas sus raíces fuera del círculo unitario (son en valor absoluto mayores que la unidad). Otro modo de decir esto es decir que Xt es ARIMA(p,d,q) con un proceso estacionario e invertible. En estas condiciones la menor raíz en valor absoluto de la parte autorregresiva es la unidad y se dice que la serie tiene d raíces unitarias o que es I(d); una serie estacionaria es I(0) y el “paseo aleatorio” utilizado anteriormente es I(1).

Combinaciones lineales de series I(0) son I(0), combinaciones lineales de series I(1) son en general I(1), con una excepción muy importante, la de las series cointegradas que son I(0) y que veremos en detalle más adelante. Esto también muestra que una serie integrada no puede ser representada adecuadamente por series estacionarias, por ejemplo una serie de niveles de empleo no puede representarse adecuadamente como una combinación de precios relativos solamente; del mismo modo una serie estacionaria no puede, en general, representarse como función de series integradas.

Estudios hechos recientemente[8] muestran que una gran proporción de las series económicas no estacionarias son I(d), y muchas de ellas I(1). esto ha inducido una gran cantidad de investigaciones sobre las propiedades estadísticas de regresiones con series I(d)[9] y sobre pruebas de que una serie de tiempo tiene raíces unitarias, usando como hipótesis nula la de que la serie es estacionaria o la de que la serie tiene raíces menores  que la unidad, y por lo tanto diverge aún más que las series con raíces unitarias. De particular importancia es la búsqueda de combinaciones lineales estacionarias de series integradas, lo que se llama el caso de la Cointegración en series[10].

La conexión de la metodología de la Cointegración con los mecanismos de corrección de errores reconcilia dos puntos de vista divergentes en investigación económica: por una parte, el de los teóricos de la economía, quienes concentrándose en las relaciones de largo plazo enfatizan la pérdida de la información sobre estas relaciones implicado en el análisis en diferencias; del otro lado, los practicantes de las series de tiempo quienes despreciando aquellas relaciones teóricas debido a su falta de información acerca de la dinámica de corto plazo de los procesos, se limitan a la representación de esta dinámica. En este sentido, en lo que se conoce como el procedimiento en dos etapas, la metodología de Cointegración preserva tanto la posibilidad de retener la información en niveles como la de permitir a los datos parametrizar su representación, podemos superar los problemas de especificación dinámica y de regresión espuria[11]. En esta forma, la posibilidad de complementar las relaciones de equilibrio de largo plazo de la ecuación de Cointegración con la dinámica que incorpora el mecanismo de corrección de errores enfatiza la significancia de la metodología de Cointegración como una respuesta de la Econometría, como corroboración de relaciones teóricas al enfoque de las representaciones de series de tiempo.

  1. Raíces Unitarias

Como se comento en la sección anterior, las series de tiempo no estacionarias que presentan raíces unitarias son un caso muy especial muy importantes de las series no estacionarias, tanto por su frecuencia en economía como por lo que se conoce de sus propiedades estadísticas; en los ;últimos años se ha realizado una gran cantidad en trabajo para el diseño de pruebas de hipótesis de que una serie tiene raíces unitarias. En esta sección se hará una presentación  de algunas de estas  pruebas. Es necesario anotar que no se trata de realizar una presentación exhaustiva de las pruebas ideadas hasta ahora sino solamente mostrar cuáles son las utilizadas más frecuentemente. Asimismo, como ene l resto de este artículo, al tratarse de un artículo de divulgación, se omiten completamente las pruebas, remitiendo al lector interesado a la literatura pertinente.

El problema estadístico teórico que se presenta es el de la existencia de una discontinuidad en las distribuciones, como funciones de a cuando esta toma el valor de 1, para  otros valores puede utilizarse en muestras grandes las distribuciones “t” y “F” usuales, pero para este valor especial es necesario encontrar nuevas distribuciones.

Las pruebas de raíz unitaria que se han desarrollado dependen del modelo básico que genera la serie. El más sencillo de la forma:

xt = axt-1 + et

donde la hipótesis nula es de la forma Ho: a = 1.

Esta hipótesis ha sido analizada en varias ocasiones con enfoques ligeramente diferentes y da origen a pruebas distintas, muchas veces según que la prueba obtenida sea del tipo de relación de verosimilitud (estimación del modelo bajo la hipótesis nula y bajo la hipótesis alternativa y prueba basada en la diferencia de los valores de los logaritmos de la función de verosimilitud en las dos situaciones), de multiplicadores de Lagrange (estimación bajo la hipótesis nula y prueba basada en cambios a partir de  esta hipótesis) o de Wald (estimación bajo la hipótesis alternativa y prueba basada en movimientos hacia la hipótesis nula)[12].

Evans y Savin (1981,1984) desarrollan una prueba de multiplicadores de Lagrange consistente en encontrar la distribución de a*, el estimador de máxima verosimilitud de a, bajo la hipótesis de que a=1. Ellos calculan los valores de la distribución normalizada ((T/Ö2)( a* -1)) por métodos numéricos y presentan gráficos y tablas de dicha distribución. El método de ellos es entonces estimar xt = axt-1 + et por máxima verosimilitud (mínimos cuadrados ordinarios si se puede mantener que et es normal), calcular  ((T/Ö2)( a* -1)) y consultar las tablas que ellos presentan.

Phillips (1987) muestra que este procedimiento, con una pequeña modificación consistente en corregir la expresión de Evans y Savin por un factor que tiene en cuenta la posible autocorrelación de et, se aplica a los modelos más generales, de la forma ARIMA(p,1,q), y, aún, a modelos en los cuales aparecen variables exógenas, siempre y cuando que estas variables puedan expresarse de forma similar y no tengan a su vez raíces unitarias. Las pruebas pueden aplicarse sin necesidad de estimar el modelo ARIMA o su análogo con variables exógenas, y sin siquiera conocer las órdenes de los polinomios autorregresivo y de promedio móvil.

Dickey y Fuller (1979,1981) presentan pruebas de relación de verosimilitud para un modelo un poco más general que el de Evans y Savin:

xt = m + bt + axt-1 + et

donde m es el llamado coeficiente de deriva (drift) y b es la tendencia de la serie. En este caso e es ruido blanco (un proceso independiente a lo largo del tiempo, con medio cero y varianza constante). Ellos presentan varias pruebas de hipótesis:

m = b = 0, es el mismo caso tratado por Evans y Savin. Ellos lo tratan de dos modos diferentes: en primer lugar[13] transforman la ecuación restando xt-1 de los dos lados de la ecuación con lo cual obtienen:

Dxt = -(1- a)xt-1 + et

bajo la hipótesis nula de existencia de raíz unitaria, el coeficiente de xt-1 debe ser cero. Fuller (1976) trae una tabla con la distribución de ese coeficiente bajo la hipótesis nula. por otro lado[14] Dickey y Fuller presentan pruebas de hipótesis de las hipótesis nulas  m = 0 y b = 0 por separado y conjuntamente con la  a =1 para ellos estiman el modelo bajo la hipótesis alternativa:

xt = m + bt + axt-1 + et

y obtienen la distribución de los coeficientes “t” de  m  y de  b y de la relación de verosimilitud de la hipótesis completa.

m ¹ b = 0 le dan los mismos tratamientos del caso anterior, por medio de una transformación se obtiene  que el hecho de cumplirse la hipótesis nula equivale a que el coeficiente de xt-1 en  Dxt = -(1- a)xt-1 + et es igual a cero , pruebas de esta hipótesis pueden realizarse usando las tablas de Fuller (1976). Por otro lado pruebas de toda la hipótesis y de los coeficientes particulares de las variables pueden hacerse estimando la regresión bajo la hipótesis alternativa y usando las tablas de Dickey y Fuller (1981).

Lo mismo sucede con el  tercer caso: m ¹ 0, b¹ 0 ahora la ecuación auxiliar es:

Dxt = am + b(1- a) + bat – (1- a)xt-1 + et

Dickey y Fuller hacen una ampliación de sus pruebas al caso en el cual  e sigue un proceso autorregresivo de orden p, la prueba llamada de Dickey y Fuller Aumentada que consiste en estimar las ecuaciones auxiliares mencionadas, añadiéndose rezagos de los valores de  Dx. Phillips (1987) también amplía al caso de modelos estacionarios más generales los resultados de Dickey y Fuller.

Es necesario anotar, sin embargo, que procesos con coeficientes muy altos en los procesos de promedio móvil presentan problemas especiales en lo que respecta al poder de estas pruebas[15].

La otra prueba comúnmente usada es la de Sargan y Bhargava[16], esta prueba se basa en los valores de la prueba de Durbin-Watson de las regresiones de la variable sobre su valor rezagado, la distribución no es la encontrada por Durbin y Watson sino la que encuentran y calculan Sargan y Bhargava.

Pruebas de Raíces Unitarias para Series de Tiempo.

  1. A) Prueba de Dickey – Fuller (DF).- Dickey y Fuller encontraron que el problema podría ser simplificado sacando a mt de ambos lados de , mt =rmt-1 + nt para obtener: Dmt = (r-1)mt-1 + nt

Dmt = lmt-1 +nt

cuando la hipótesis nula es ahora H0: l=0 y la hipótesis alternativa es H1: l<0. Mientras  esta transformación ayudo con los problemas de la distribución, la prueba estadística no sigue con la distribución tradicional y los valores críticos para la evaluación de la prueba estadística han tenido que ser determinados a través de los extensos experimentos de Monte Carlo[17].

  1. B) Prueba ampliada de Dickey-Fuller (ADF).- El proceso autorregresivo de Dmt = lmt-1 +nt es muy simple y para tener en cuenta dinámicas más complejas, Dickey y Fuller propusieron pruebas para la estacionariedad basadas en la ecuación ampliada:

Dmt = a0 + a1t + lmt-1 + SbjDmt-j + nt

donde j=1,…m, a0 toma en cuenta la dirección y t es la tendencia lineal en el tiempo.

La mayoría de la literatura teórica y estudios empíricos han estado interesados en el caso en el cual las variables a investigarse son I(1) y sólo dos variables son consideradas en un período, pero han habido algunos interesantes desarrollos recientes en la Cointegración Multivariable y en las pruebas desarrolladas para las Raíces Unitarias y para la Cointegración (ver Engle y Granger 1991)[18].

  1. C) Prueba de Raíz Unitaria de Phillips-Perron (PP).- Una prueba alternativa de raíz unitaria fue desarrollada por Phillips y Perron . Al igual que la prueba ADF, la prueba PP es una prueba de hipótesis sobre p=1 en la ecuación: ∆Yt = ∆b + pYt-1 + ∆ t ; pero a diferencia de la prueba ADF, no existen términos de diferencias retardados. Más bien, la ecuación es estimada por MCO y luego el estadístico «t» del coeficiente p es corregido. La hipótesis nula H0 del test de Phillips-Perron es la trayectoria de raíz unitaria con tendencia y la alternativa la estacionariedad con tendencia, si el valor t-Student asociado al coeficiente de Yt-1 es mayor en valor absoluto al valor crítico de MacKinnon, se rechaza la hipótesis de existencia de raíz unitaria.
  2. D) Test de Zivot y Andrews.- Zivot y Andrews (1992) .- Zivot & Andrews elaboraron un test en el que se diferencia una trayectoria de raíz unitaria de una estacionaria cuando había cambio estructural, debido a que los tradicionales test ADF y PP estaban sesgados hacia el no rechazo de la hipótesis nula de raíz unitaria, puesto que a menudo se rechazaba incorrectamente la hipótesis alternativa de estacionariedad. La hipótesis nula es la presencia de raíz unitaria con tendencia y la alternativa, la de estacionariedad con tendencia y cambio estructural (en el nivel y/o pendiente). Zivot y Andrews presentan unos gráficos en la que se plotean por un lado, la trayecoria de la distribución t o t’s de Zivot, y por el otro los valores de la distribución t crítico. Si el valor t-Zivot es menor que los valores críticos (VCRIT), existe suficiente evidencia estadística para rechazar la hipótesis nula de raíz unitaria, por lo que la(s) serie(s) evaluadas muestra una trayectoria de raíz unitaria. Contrariamente, si la distribución de valores t Zivot son mayores que el t crítico, no existe evidencia para rechazar la hipótesis nula de raíz unitaria (no estacionariedad).

Perron (1989) sostuvo que los tradicionales test de raíz unitaria (Dickey-Fuller, Dickey-Fuller Aumentado y Phillips-Perron) tenían poco poder para diferenciar una trayectoria de raíz unitaria de una estacionaria cuando había cambio estructural. En consecuencia, como estos test estaban sesgados hacia el no rechazo de la hipótesis nula de raíz unitaria, a menudo se rechazaba incorrectamente la hipótesis alternativa de estacionariedad. Perron encontró, por ejemplo, que las series de agregados macroeconómicos y financieros utilizados por Nelson y Plosser (1982) eran en su mayoría estacionarias con  cambio estructural, en oposición a lo que los citados autores señalaban. Siguiendo esta línea, Zivot y Andrews (1992)[19] elaborarón un test en la que la fecha del  punto de quiebre era determinada endógenamente.

  1. E) Metodologia del Filtro de Hodrick – Prescott .- De acuerdo con este metodo es preciso encontrar la serie Y*t (tendencia) que minimice : ( Yt – Yt* )2 +  l ( DYt – DYt* )  la serie Yt* equivale a la variable potencial y  l es el parámetro de suavización, en una serie estacionaria, la tendencia es casi paralela al eje X. El filtro de Hodrick – Prescott es quizá el método mas frecuentemente utilizado para determinar la tendencia de una serie estacionaria, sin embargo ha sido sujeto a criticas diversas. Entre ellas destaca el hecho  de que la determinación ex ante del parámetro de suavización esta sujeta a la discrecionalidad del investigador, que los extremos de la serie de tendencias están deficientemente definidos y que induce un comportamiento cíclico espurio en los datos. Sin embargo el método representa un patrón contra el cual pueden compararse otros métodos de estimación para series estacionarias.

Aquí la serie de dinero real, registra un comportamiento errático debido a la presencia de un posible quiebre estructural.

En la sección V de este artículo aparecerán ejemplos del uso de estas pruebas.

 Ecuación de Cointegración y Mecanismos de Corrección de Errores.

Se dice que un vector de series de tiempo xt es cointegrado de orden d,b ( xt ~ CI(d,b)) si siendo todas las series del vector ~ I(d), existe un vector de coeficientes a  tal que z = a‘x  ~ I(d -b), b >0. En particular, si N=2 y d=b=1 se tiene para las series xt y yt, las cuales son I(1), que si bien en general cualquier combinación lineal de ellas es I(1), si existe un  a tal que zt= xt – ayt es I(0), ellas son cointegrados de orden 1 y el parámetro de Cointegración  a es único.

Ahora bien, el hecho de que esta combinación lineal es I(0) a pesar de que las series individualmente sean I(1), en otras palabras, de que zt, por oposición a xt y a yt individualmente no tienen componentes dominantes de onda larga significa que a es tal que el grueso de los componentes de largo plazo de yt y axt se cancelan mutuamente. Por otra parte, cuando se deriva de la teoría económica la operación de fuerzas que tienden a mantener xt  y  yt juntas y se postula la existencia de una relación de equilibrio de largo plazo entre ellas, se esta implicando que xt y yt no pueden alejarse mucho lo cual expresado en términos las características del error de equilibrio zt, significa que e  debe ser estacionario. Por consiguiente, esta reducción del orden de integración de manera que zt es I(0) aparece como la condición  de posibilidad estadística de la postulación de una relación de equilibrio entre xt y yt. O para ponerlo en términos de las pruebas de hipótesis de la representación de  paseo aleatorio para zt, el equilibrio estimado sería desalentador e irrelevante.

Resulta entonces, claro , que hacer pruebas de Cointegración entre xt y yt no es diferente de hacer pruebas de estacionariedad de zt; más precisamente, con el fin de comprobar la hipótesis nula de no Cointegración para esas series lo único que se necesita hacer es  comprobar la hipótesis nula de una representación de paseo aleatorio para zt. Y por consiguiente, el procedimiento metodológico obvio con el fin de hacerlo es correr la regresión de Cointegración xt= C + ayt + et, por mínimos cuadrados ordinarios y aplicar alguna de las pruebas de raíz unitaria. Es de anotarse que un síntoma de Cointegración entre variables es un valor alto del R2 acompañado de valores no muy bajos (de acuerdo con la prueba de Sargan y Bhargava) de estadístico de Durbin y Watson.

Granjer y Engle (1987) muestran que, en el caso de Cointegración, el procedimiento de mínimos cuadrados ordinarios produce resultados consistentes para los parámetros de la ecuación (mejor aún, superconsistentes, en el sentido de que los parámetros tienden a su verdadero valor en forma inversamente proporcional al número de observaciones y no a la raíz cuadrada de ese número como es el caso usual con series estacionarias), muestran también que las pruebas de hipótesis usuales no son válidas. Ellos muestran también que, en el caso de dos variables, la ecuación de Cointegración esta identificada (en el sentido econométrico no en el sentido de series de tiempo) por  la condición de que es la única combinación lineal de las variables con varianza finita; en el caso de varias variables puede haber diversas relaciones de Cointegración y es necesario introducir criterios adicionales de identificación, normalmente por exclusión de variables como en la situación clásica.

En cuanta a las pruebas de Dickey y Fuller y de Dickey y Fuller Ampliada, de nuevo se utilizan las tablas no estándar del “t” con el objeto de rechazar una hipótesis de raíces unitarias en favor de la estacionariedad; sin embargo, debe enfatizarse  que en el caso de haber más de dos variables en el vector de Cointegración, caso en el cual  a no es necesariamente único de manera que pueden existir varias relaciones de equilibrio, los valores críticos del estadístico “t” son ahora correspondientemente altos[20]. Por otra parte, en cuanto a la prueba de Sargan y Bhargava, en la misma forma que cuando se comprobaba la  presencia de raíces unitarias, un DW de la regresión xt = c + ut significativamente mayor que cero permitía rechazar la hipótesis de que xt era paseo aleatorio, cuando se comprueba Cointegración un DW de la regresión de Cointegración (notado como CRDW) significativamente mayor que cero permite rechazar la hipótesis de no Cointegración.

Finalmente, se va a considerar el vínculo entre Cointegración y mecanismo de corrección de errores tanto desde un punto de vista estadístico como desde un punto de vista metodológico, el primero con respecto a lo que es conocido como Teorema de Representación de Granger, y el segundo al así llamado Procedimiento en Dos Etapas de Engle y Granger (2EEG)[21]. Ahora bien, antes de introducir esto se debe recordar que un mecanismo de corrección de errores  postula[22]  que una proporción del desequilibrio de un período es corregido es corregido en el siguiente período, y que un modelo de este tipo relacionaría el cambio de una variable con los errores de equilibrios pasados y los cambios pasados en ambas variables. Entonces, la implicación de este teorema es que series cointegradas tienen una representación de mecanismo de corrección de errores e, inversamente, un mecanismo de corrección de errores genera series cointegradas; en otras palabras: si xt , yt son I(1), sin tendencias en medias, y son cointegradas, siempre existe un mecanismo de corrección de errores de la forma:

xt = -g1 zt-1 + A1 (L) xt + B1 (L) yt + D1 (L)h1t

yt = -g2 zt-1 + A2 (L) xt + B2 (L) yt + D2 (L)h2t

donde zt-1 es el residuo de la ecuación de Cointegración rezagado un período y todos los polinomios en términos rezagados tienen sus raíces fuera del círculo unitario. Además datos generados por un mecanismo de corrección de error debe ser cointegrado (Granger, 1986).

Ahora bien, la existencia, dada la Cointegración, de una representación MCE que no esta sujeta a los problemas de regresión espuria, ya que todas las variables que entran en la ecuación son estacionarias, da lugar al método de dos etapas de Engle y Granger. Este procedimiento es muy sencillo, simplemente consiste  en la ejecución de la regresión en niveles por mínimos cuadrados ordinarios, la realización de la prueba de Cointegración, seguida de la estimación de un mecanismo de corrección de error, estimado otra vez por MCO, este mecanismo incluye los  residuos de la ecuación de Cointegración en lugar de términos en niveles de las variables que entran en ella, tal como se muestra. En esta forma, la imposición de restricción dada por la ecuación de Cointegración sobre el MCE expresa la introducción del impacto de la relación teórica de equilibrio de largo plazo sobre el modelo dinámico de corto plazo. En términos prácticos, entonces, se puede (y se debe) usar Cointegración en primer lugar como una pre –  prueba a fin de evitar situaciones de regresión espuria, y únicamente después de rechazar no Cointegración pasar a la especificación en cambios rezagados, con el fin de modelar  z mediante el mecanismo de corrección de errores. De manera que, el procedimiento de Engle y Granger permite producir proyecciones de corto plazo que, al ser consistentes con las de largo plazo derivadas de la teoría económica, proveen una alternativa poderosa a aquellas derivadas del análisis simple de series de tiempo y, además permite la incorporación clara de  la estructura dinámica en las ecuaciones derivadas de la teoría económica, al permitir estimar conjuntamente tanto la relación de equilibrio como el comportamiento del sistema fuera del equilibrio.

ANALISIS DE ESTABILIDAD DE PARÁMETROS[23]

la utilidad de los estimadores MCO en la explicación y  en la proyección de variables economicas depende fundamentalmente del cumplimiento de los supuestos del MLG. Por ello, un análisis econometrico completo debe verificar que no existan indicadores que hagan dudar el cumplimiento de alguno de los supuestos. Existen dos formulaciones para indagar sobre la presencia de inestabilidad, la técnica tradicional y la estimación recursiva.

La técnica tradicional se basa en el supuesto de que se conoce la fecha del punto de quiebre[24] y en virtud de tal supuesto se realiza la conocida prueba del cambio estructural propuesta por Gregory Chow[25]. Esta prueba esta basada en el contraste F de Fisher  que se distribuye con k y (n-2k) grados de libertad, si el valor F-Chow es menor que el valor tabular F con los grados de libertad apropiados y al nivel de confianza escogido, se podria aceptar la hipótesis de estabilidad de parámetros, pero si el valor  calculado F-Chow resultara mayor que el valor tabular F – Fisher, no podria aceptarse la hipótesis que los parámetros poblacionales son significativamente iguales, por  lo tanto se puede asumir parámetros inestables.

Des esta manera con el test de Chow es posible evaluar según la fecha determinada, hubo o no un cambio de estructura que se manifestó en la función analizada.

A través de los estimadores recursivos es posible detectar la presencia del problema econometrcio mencionado mediante la utilización de pruebas estadísticas, tales  como el Test de Residuos Recursivos y el Test CUSUMSQ.  El residuo recursivo correspondiente a la observación t,  se define como la diferencia entre el valor observado de la variable endógena y el valor predicho de la misma, observando que bajo la hipótesis nula de estabilidad y el supuesto de normalidad, los residuos recursivos Wn  posee las mismas características que los residuos poblacionales Un y por ello se concluye que es un buen estimador  de este. Si los valores de Wn no cambia de manera sistemática en el horizonte temporal de su trayectoria, por lo cual se concluye que no hay evidencia de inestabilidad en el modelo estimado.

En la misma línea, el Test CUSUMSQ (suma acumulada de residuos al cuadrado), en un intento de evitar la limitación de aceptar la hipótesis de estabilidad por razones causales, situación que se puede presentar en el test anterior, los autores (Brown, Durbin y Evans) proponen un contraste que consiste en dibujar la serie temporal de Wn así como las líneas que limitan la banda de confianza : E (Wn) ± Co  donde el valor crítico de Co se obtiene de la tabla estadística CUSUM. Nuevamente, si Wn se sale de la banda, se rechaza la hipótesis de homogeneidad del modelo. Se observara, que el algoritmo Wn es una función monótona creciente con límite en la unidad, el cual sigue una distribución beta con parámetros  (s – k) / 2, y (n – s) / 2;   con esperanza E (Wn) = (s – k) / (n-k).

 Ejemplos

En esta sección se presenta una aplicación de la metodología anterior. Cabe la pena mencionar que esta ilustración es solamente ilustrativa, y que forman parte de trabajos más completos que esta siendo desarrollado por el autor.

  • Tipos de cambio

Es de esperarse que existan una relación de largo plazo entre el tipo de cambio oficial y el tipo de cambio paralelo, si esta no existiese se presentarían oportunidades ilimitadas de ganancia a personas que comprasen y vendiesen en los mercados.

Se trabajara en este ejercicio con datos mensuales de los dos tipos de cambio desde enero de 1980 hasta diciembre de 1999.

El primer paso consiste en estudiar la presencia de raíces unitarias en las dos series. Para disminuir problemas adicionales de heterocedasticidad se trabajo con logaritmos de las variables.

El procedimiento general, consiste en cinco pasos:

– Prueba de raíz unitaria de las series.

– Estimación de la relación de Cointegración.

– Prueba de Cointegración.

– Estimación del mecanismo de corrección de errores. Y,

– Pruebas estadísticas de esta  ecuación.

Aplicando la prueba de Evans y Savin se raíces unitarias se tiene:

Variable            Coeficiente                   Prueba             Significancia

Paralelo        1.003294                          0.5590                    0.85

Oficial           1.003388                          0.5749                    0.87

Como puede verse no se puede, con base en esta prueba rechazar la hipótesis de existencia de una raíz unitaria en las dos series.

Aplicando la prueba de Sargan y Bhargava se obtienen resultados similares:

Variable                       Durbin-Watson             Significancia

Paralelo                  0.00177                  > 0.10

Oficial                     0.00029                  > 0.10

Aplicando la prueba de Dickey y Fuller se tiene:

Variable                       Coeficiente          t        Significancia

Paralelo                  0.00329        5.9842              > 0.10

Oficial                     0.00339        33.160     > 0.10

En esta prueba los coeficientes resultaron positivos, lo cual es indicio de que no se puede rechazar la hipótesis de raíz unitaria y de que es posible que existan varias. Se aplicaron las otras pruebas de Dickey y Fuller, con el resultado, en todos los casos de que no se puede rechazar la hipótesis de una  raíz unitaria. En los dos casos se rechazaron las hipótesis de una tendencia no aleatoria y de una deriva (drift). La hipótesis que permaneció fue la de unos procesos con raíz unitaria.

Las mismas pruebas se aplicaron a las diferencias de las series para examinar la hipótesis de dos raíces unitarias. Para el tipo de cambio paralelo se rechaza muy claramente la hipótesis utilizando cualquier prueba. Para el tipo de cambio oficial la situación no es tan clara, se rechaza la hipótesis pero marginalmente.

En resumen las dos series son I(1) y se les puede aplicar los métodos de la sección III para ver si son variables cointegradas.

La ecuación de Cointegración es:

Paralelo = 0.056611 + 0.990999*Oficial + e               R2 = 0.99284           D-W = 0.20476

O, alternativamente:

Oficial = -0.027624 + 1.001856*Paralelo + e              R2 = 0.99284           D-W = 0.20328

Las dos ecuaciones están muy cerca de ser la una la inversa de la otra, lo cual según Engle y Granger es un síntoma de Cointegración, esto se muestra en el hecho de que el producto de los coeficientes de las variables explicatorias, en este caso 0.9928, sea muy cercano a la unidad.

Aplicando la prueba de Sargan y Bhargava se tiene de acuerdo a la tabla publicada por Engle y Yoo (1988) que los valores críticos de la prueba son 0.29 para 1%, 0.2 para 5% y 0.16 para 10% de modo que se puede rechazar la hipótesis nula, no Cointegración o lo que es lo mismo presencia de una raíz unitaria en los residuos de la ecuación de Cointegración, a un nivel por lo menos 5%, el mismo resultado es válido usando cualquiera de las dos ecuaciones.

Otras de las pruebas es la de aplicar Dickey y Fuller a los residuos de la regresión, para el tipo de cambio paralelo, se obtiene:

Cambio Residuos = -0.103217*Residuos (-1 ) + j

(-3.50105 )

Las tablas muestran como valores críticos del coeficiente “t”:-4(1%), -3.37(5%) y -3.02(10%), como en el caso de la prueba  anterior, se puede rechazar la hipótesis de no Cointegración a un nivel de por lo menos 5%. Algo similar ocurre si se toma como ecuación de Cointegración aquella en la cual aparece como variable dependiente el tipo de cambio oficial. Y lo mismo sucede con las demás pruebas de Cointegración.

Como se vio en la sección III, asociado a la ecuación de Cointegración existe un mecanismo de corrección de errores, en el cual el cambio en las variables cointegradas esta asociado a los residuos de la ecuación de Cointegración y, probablemente, a valores rezagados de los cambios de las variables y a otras variables que no entraron en la ecuación de Cointegración. Usando hasta doce rezagos de cada uno de los cambios de las variables, por tratarse de series mensuales, se estimo la ecuación de corrección de errores que aparece en el cuadro 1.

Cuadro 1

Ecuación de corrección de errores   D en el tipo de cambio paralelo ( CTPAR)

Variable           Rezago            Coeficiente      t-Statistic        Significancia

Constante     0                  -0.004531     -0.935198     0.3496860

Residuo        1                  -0.080057     -2.280963     0.0225506

Ctpar            1                  -0.135146     -1.823069     0.0682929

Ctpar            2                  -0.143257     -1.916368     0.0553183

Ctpar            3                  -0.128595     -1.719982     0.0854357

Ctpar            4                  -0.282954     -3.788447     0.0001516

Ctpar            5                  -0.044578     -0.578704     0.5627889

Ctpar            6                  0.000977     0.012698     0.9898690

Ctpar            7                  0.047242     0.616075     0.5378450

Ctpar            8                  -0.017708     -0.229811     0.8182390

Ctpar            9                  -0.102966     -1.399052     0.1617970

Ctpar            10                -0.767432     -1.049615     0.2938950

Ctpar            11                0.542212     0.758402     0.4482100

Ctpar            12                0.145937     2.069835     0.0384670

Ctof              1                  1.785215     2.271580     0.0231120

Ctof              2                  -0.232684     -0.202017     0.8399030

Ctof              3                  -1.272581     -1.088481     0.2763830

Ctof              4                  2.186517     1.852417     0.0639660

Ctof              5                  -0.895971     -0.750444     0.4529870

Ctof              6                  1.172320     0.983896     0.3251660

Ctof              7                  -1.866239     -1.573436     0.1156180

Ctof              8                  0.880443     0.740438     0.4590340

Ctof              9                  0.034644     0.029335     0.9765980

Ctof              10                1.096212     0.936424     0.3490540

Ctof              11                -0.886466     -0.769352     0.4416480

Ctof              12                -0.094025     -0.119790     0.9046500

 R2                 0.3029                    Q = 44.82    

Como puede verse, el coeficiente de los residuos de la ecuación de Cointegración es negativo y es significativo, lo cual constituye otra prueba de la existencia de Cointegración entre las dos variables, el signo negativo quiere decir que cuando el tipo de cambio paralelo se aleja mucho de la ecuación de equilibrio en un período, existen fuerzas que la hacen acercarse a dicha ecuación en el período siguiente. El valor del R2 es bajo, lo cual indica la necesidad, si se quiere una ecuación que explique mejor el comportamiento de la variable, de introducir en el modelo variables diferentes de las se han incorporado; el valor del estadístico Q (Box-Ljung) muestra que no se puede rechazar la hipótesis de que los residuos son ruido  blanco. Como resulta siempre en una primera etapa de estos ejercicios, hay muchas variables que son significativas, reestimando la ecuación, eliminando esas variables se obtienen los resultados del cuadro 2.

Cuadro 2

Ecuación de corrección de errores   D en el tipo de cambio paralelo ( CTPAR)

Variable           Rezago            Coeficiente      t-Statistic        Significancia

Constante     0                  -0.004482     -1.021553     0.306993

Residuos      1                  -0.086511     -2.640473     0.008279

Ctpar            1                  -0.126847     -1.929663     0.053653

Ctpar            2                  -0.160104     -2.510814     0.012045

Ctpar            3                  -0.156908     -2.479135     0.013170

Ctpar            4                  -0.263093     -4.244920     0.000022

Ctpar            12                0.170443     2.784201     0.005366

Ctof              1                  1.757943     5.854069     0.000000

 R2                 0.2594                    Q = 43.8533

Este cuadro muestra resultados bastante satisfactorios, todas las variables  son muy significativas, el tipo de cambio paralelo entra con cuatro rezagos seguidos y con un rezago de orden 12 el cual refleja la estacionalidad del proceso, el tipo de cambio oficial entra con un rezago y, por su puesto, a través del mecanismo de corrección de errores.

Cuadro 3

Ecuación de corrección de errores   D en el tipo de cambio oficial  ( CTOF)

Variable      Rezago               Coeficiente      t-Statistic          Significancia

Constante     0                  0.000808      1.950051      0.051170

Residuo        1                  0.002358      0.867466      0.385687

Ctpar            11                0.016669      3.069838      0.002142

Ctpar            12                0.009784      1.755329      0.079203

Ctof              1                  1.010398      5.278560      0.000000

Ctof              2                  -0.148142     -2.218871     0.026495

Ctof              12                0.061952      1.965018      0.049412

 R2                 0.8816                    Q = 52.9424 

El cuadro 3 muestra el resultado del mismo ejercicio para la serie del tipo de cambio oficial, como se vio anteriormente, esta serie tiene mucha  más inercia que la anterior, tanto que puede dudarse de si se trata de una serie I(1) o de una I(2), esto explica también el alto valor del R2 en esta ecuación. Como es de esperarse, el coeficiente del residuo es de signo positivo, pero no es significativo, esto indica que el tipo de cambio oficial afecta a la paralela a través del mecanismo de corrección de errores pero no sucede lo contrario. Sin embargo, la paralela si afecta a la oficial en forma más directa, sobre todo en la parte estacional de la serie.

Granger muestra que si existe Cointegración, y por consiguiente mecanismo de corrección de errores, existe también causalidad en el sentido de Granger, por lo menos una de las variables causa a la otra, en el sentido de que tenerla en cuenta aporta a la calidad de la explicación de la otra variable. En esta caso el tipo de cambio oficial causa a la paralela en el sentido Granger pero no al revés.

Los resultados  sugieren que el mercado paralelo de dólares no es un mercado eficiente, en el sentido que utiliza toda la información disponible, si así fuese, el tipo de cambio paralelo sería un paseo aleatorio, el pasado de la serie no contendría ninguna información sobre los cambios en la serie cosa que los resultados anteriores muestran que se puede rechazar.

VII. Instrumentalizacion de la Metodología de Vectores Autorregresivos (VAR). [26]

En esta parte del artículo se analizara los detalles técnicos asociados con estimación y uso de los Vectores Autorregresivos (VAR), en particular en el manejo de series de tiempo no estacionarias útil para analizar la interrelación entre las diferentes series de tiempo. El objetivo fundamental de la propuesta es proporcionar una estrategia de modelización que al evitar la generosa imposición de restricciones en que se apoya la identificación de los modelos econométricos convencionales, permita reflejar lo más fielmente posible las regularidades empíricas e interacciones entre las variables objeto de análisis.

Cuando se tienen varias series, es necesario tomar en cuenta la interdependencia entre ellas. Una forma de  hacerlo es estimar un modelo de ecuaciones simultáneas, pero con rezagos en todas las variables. Este modelo se conoce como modelo dinámico de ecuaciones simultáneas  . Sin embargo, esta formulación supone dos pasos: primero, es preciso clasificar las variables en dos categorías: endógenas y exógenas; segundo: deben imponerse ciertas restricciones en los parámetros para lograr la identificación. Para superar esto se propone el uso de los “Vectores Autorregresivos” que no es más que una generalización del modelo Autorregresivo AR ( p )  a las series de tiempo múltiples.

Los Vectores Autorregresivos han proveído una exitosa técnica para hacer pronósticos en sistemas de variables de series de tiempo interrelacionadas, donde cada variable ayuda a pronosticar a las demás variables. VAR es también frecuentemente utilizado, aunque con considerable controversia en el análisis del impacto dinámico de diferentes tipos de perturbaciones y controles fortuitos en sistemas de variables. Un VAR es un sistema de variables que hace de cada variable endógena una función de su propio pasado y del pasado de otras variables endógenas del sistemas .  El estudio de las interacciones dinámicas estimadas es una de las motivaciones fundamentales de los usuarios de los modelos VAR y, de hecho, los usos típicos de estos modelos reflejan esta motivación. Tales usos son el computo de las funciones impulso-respuesta y de la descomposición de la varianza del error de predicción. Las implicaciones dinámicas del modelo estimado dependerán evidentemente de la estructura de correlaciones contemporáneas reflejada en la matriz de perturbaciones. Explicar cómo realizar esta incorporación, el computo de las estimaciones VAR, de la función impulso-respuesta y de la descomposición de la varianza del error de predicción, serán el objeto de estudio de las siguientes secciones. La estimación del modelo VAR es más sencillo, ya que es posible utilizar el método de los Mínimos Cuadrados Ordinarios (MCO).  Toda esta exposición esta basada en los trabajos de  Christopher A. Sims, “Macroeconomics and Reality” (1980) y  “Macroeconometrics VAR: A Explanations” (1991).

Metodología del Vector Autorregresivo.[27]

La metodología VAR es, en cierta forma ,una respuesta a la imposición de restricciones a priori que caracteriza a los modelos econométricos convencionales: en un sistema de ecuaciones simultáneas se requiere imponer restricciones sobre los parámetros de las mismas para garantizar la identificación y posible estimación de las ecuaciones que lo conforman. Para ello, además, es indispensable diferenciar entre las variables endógenas y las predeterminadas, es decir, aquellas cuyos valores no son determinados por el modelo en el  período actual. Estas últimas pueden ser exógenas o endógenas rezagadas.

El VAR presenta alternativamente, un sistema de ecuaciones simultáneas en el que cada una de las variables son explicadas por sus propios rezagos y los del resto de variables del sistema. Es decir no se admite restricciones a priori y todas las variables son consideradas endógenas. La única información a priori que se incluye está referida al número de rezagos de las variables explicativas que se incorporan en cada ecuación.

No obstante, en términos operativos, una correcta especificación del sistema requiere que la determinación de las variables a ser incluidas en él, se base en el conocimiento de un modelo teórico relevante. Un VAR  tiene en general la siguiente especificación:

(1)  Yt = PiYt +i +mt

Donde Yt é  Yt-1 son vectores de orden m1 (m es el número de rezagos del sistema) y Pi es la matriz (cuadrada de orden m) de coeficientes del rezago  i  de  las variables explicativas en las m ecuaciones.

De esta forma, se puede observar que deberán estimarse tantas matrices Pi  como rezagos se incluyan en el sistema. Matricialmente: (2)

Y1t         a11(L)            a12(l)                   a1m(L)          Y1t                  m1t

 Y2t         a21(L)      a2m(L)                                       Y2t                  m2t

   =     .                   .                            .                .            +        .

 

.            .                   .                            .                .                      .

Ymt         aml(L)                                      amm(L)        Ymt                 mmt

 

En este sistema:

(3)  E[m tm t-j] = 0 » j ¹ 0

(4)  E[m tt] = S

Como se observa, todas las explicativas del sistema son predeterminadas (endógenas rezagadas); además, los errores tienen una varianza constante y no presentan autocorrelación. Por ello, el mejor estimador asintótico de este modelo es el de mínimos cuadrados ordinarios (MCO) aplicado ecuación por ecuación. En términos prácticos se recomienda:

1-Limpiar cada una de las series de cualquier tipo de estacionariedad.

2-Estimar por MCO cada ecuación individualmente.

3-Determinar el número de rezagos de las variables explicativas que deben permanecer en    cada ecuación.

Para ello se sugieren dos tipos de test: primero el test F por bloques, para probar la hipótesis nula de que un número i de rezagos deben incluirse como explicativas en cada ecuación, versus la alternativa de que dicho número es  i + r  > i.

Este test tiene el problema de que debe ser aplicado individualmente a cada ecuación, pudiendo llegarse a la conclusión de que el número de rezagos a incluirse en ellas es diferente en cada caso. Esto le restaría eficiencia al estimador de MCO; segundo, el test de Máxima Verosimilitud para el conjunto de ecuaciones. La hipótesis nula de este test es el que el sistema tiene un número i de rezagos versus la alternativa de que este número es  j + r . El estadístico seria:

{ T – C } * { log |Si| – log |S i + r |}

donde

log |Si|=logaritmo del determinante de la matriz de varianzas y covarianzas para el modelo con  i   rezagos.

T = Número de observaciones.

C = Parámetros del modelo no restringido en cada ecuación:

{12 (j + r) +1}

Este test se distribuye c2 con grados de libertad igual al número de restricciones en el sistema {4 ( i + r ) 2}. Este test tiene poco poder para rechazar test sucesivos de restricción de rezagos; por ello el rezago referencial debe ser el de mayor valor en el sistema, es decir, cualquier hipótesis nula debe ser contrastada contra el rezago ( i + r ).

No  se debe utilizar el test “ t”  ni  dar importancia a los signos de los coeficientes, ya que existe una gran multicolinealidad entre las variables de cada ecuación. La magnitud de los coeficientes es un indicador relativo de la significancia de la variable (un coeficiente pequeño generalmente acompaña a una variable poco significativa).

Nótese que una de las desventajas del uso de este modelo es que su estimación implica calcular  m2p coeficientes, sin considerar los de la matriz S2.

Una forma alternativa de representación VAR consiste en hacer depender el vector de valores actuales de las variables del valor actual y los infinitos rezagos del vector de errores:

(5)   Yt=Pi Li Yt + m t

(6)  [ I –  Pi Lj] Yt = m t

(7)   A(L)Yt = mt

(8)   Yt = m t / A(L)

(9)   Yt = d + m t +Y1m t-1 +Y2 m t-2 + .…

donde ( 9 ) es una representación  MA (¥ ).

Esta representación puede ser transformada de tal forma que los valores actuales sean una función de los valores presentes y pasados de un vector de innovaciones ortogonales: como los errores (5) no tienen porque estar correlacionados, se acostumbra premultiplicar dicha ecuación por la única matriz triangular (T) , con unos en la diagonal principal, que diagonaliza la matriz de covarianzas del error. Así, se obtiene un  nuevo modelo con errores ortogonales:

TYt = TPi Yt-1 + ht

donde: ht = Tmt es el vector de las innovaciones ortogonalizadas, y D = TST. Es decir, para cada matriz S  real, simétrica y definida positiva existe una única matriz triangular P con unos en la diagonal principal  y una única matriz diagonal D con entradas positivas en la diagonal, tal que :  S = PDP´.

Si se requiere obtener un nuevo modelo con errores ortogonales, bastará con hacer  T = P-1, de forma tal que:

E(htt) = [ P-1] E (m tm ´t) [P-1]

= [P-1]S[P-1

= [P-1]PDP´[P´]-1

E(htt) = D

Donde D, la matriz de varianzas y covarianzas de los errores transformados, es una matriz diagonal que garantiza su ortogonalidad. A partir de este modelo transformado se pueden obtener  las interacciones dinámicas estimadas: la función de impulso-respuesta ortogonalizada, calculando el efecto sobre Yt+s de un impulso unitario ht+s ; y de descomposición de la varianza del error de predicción, los cuales  serán materia de discusión en las secciones siguientes.

Especificación del Sistema VAR.

En la práctica es frecuente la existencia de más de dos variables endógenas y muchas veces más de un rezago. El modelo de Autorregresión Vectorial con tres rezagos para cada  una de las  2 variables endógenas e incluyendo la constante sería:

Y = a0 + b1Yt- 1 + b2Yt-2 + b3Yt-3 + b4 Xt-1 + b5 Xt-2 +b6 Xt-3 + x1.

X = a1 + b13Yt- 1 + b14Yt-2 + b15Yt-3 + b16 Xt-1 + b17 Xt-2 +b18 Xt-3 + x2.

Hemos considerado el sistema en términos lineales (el sistema también puede escribirse en términos del operador de retardos L), a fin de tener una expresión convergente para las variables endógenas en términos de las innovaciones ( x1, x2,):

Yt = A1Yt-1 + ………+ApYt-p + xt

Y1t = D-1[(1-annL)x1t + a1nLx2t+…..annLxnt]

Para el caso de un modelo, con 2 variables endógenas: Yt, Xt, y 3 rezagos para cada una de ellas, la primera ecuación sería:

Y=  a+bj Yt-j  +dj Xt-j  + x1

Xt = a2   +fjYt- j+ljXt-j+ x2t

Estimación y Calibrado Econométrico  VAR.[28]

Desde una perspectiva Bayesiana, el problema de estimación consiste en obtener una estimación de los coeficientes partiendo de la distribución de los mismos y la nueva información incorporada en el vector de observaciones de las variables endógenas. La estimación se completa cuando se han procesado todas las observaciones muéstrales de acuerdo con las ecuaciones de actualización, obviamente, llevar a término el proceso requiere especificar el sistema VAR , así como la distribución que debe ser interpretada como condicional en la historia premuestral. Un principio básico de esta metodología es evitar a priori exclusiones injustificadas de variables; de otro lado, la introducción de coeficientes que dependen del tiempo tiene como objetivo capturar posibles no linearidades en el vector estocástico modelado.

Los coeficientes estimados de un VAR  son difíciles de interpretar. Por causa de esto es muy probable observar en la función de impulso-respuesta y de descomposición de la varianza del sistema, ciertas implicaciones acerca del VAR .

Teóricamente, en cada ecuación el coeficiente de la propia variable rezagada tendrá una media inicial de 1, y todos los demás tendrán una media inicial de 0, con la varianza de la variable a priori disminuyendo a medida que aumenta la longitud del rezago. Al aumentar la longitud del rezago, disminuye la varianza; es decir, cada vez es mayor la certeza de que el coeficiente es cero. Para todos los demás coeficientes, dicho valor inicial será de 0 y los valores iniciales de los coeficientes rezagados se concentrarás más en torno a cero.

Como el objetivo de la modelación VAR es el estudio de las interacciones dinámicas de diferentes tipos de perturbaciones y controles fortuitos, y de hecho, los usos típicos de esta modelación reflejan esta motivación, se pasará al análisis de las funciones impulso-respuesta y de la descomposición de la varianza ,a fin de realizar  evaluación de políticas y el  análisis del poder predictivo del sistema, tópicos que se describen en las siguientes secciones del artículo.

Función Impulso-Respuesta.

Esta función es simplemente la representación de medias móviles asociada con el modelo estimado y explica la respuesta del sistema a shocks en los componentes del vector de perturbaciones . La función impulso-respuesta traza la respuesta de las variables endógenas en el sistema ante un shock en los errores. Un cambio en x1 cambiaría inmediatamente el valor de Y . Ello además cambiaría todos los valores futuros de las demás variables endógenas del sistema, debido a la estructura dinámica del sistema.

En una  función mpulso-respuesta , separa los determinantes de las variables endógenas dentro de los shocks o identifica innovaciones con variables específicas. Entonces, traza el efecto corriente y valores futuros de las variables endógenas ante un “shock” de una desviación estándar a las innovaciones (variables estocásticas).

Si todos los componentes estocásticos de nuestro sistema VAR  son incorrelativos, la interpretación es directa, x1 es la innovación Y , x2 es la innovación  X, y así sucesivamente.  Una función impulso-respuesta para x2 mide el efecto de una desviación estándar ante un shock en X actual y futuro para las variables endógenas.

Por desgracia, este no es casi nunca el caso pues los errores son totalmente incorrelativos. Cuando los errores se correlacionan, ellos tienen un componente común el cual no puede ser identificado con cualquier variable específica. Un método algo arbitrario de negociación con este problema es atribuir todo el efecto a cualquier componente común a la variable, aquel que venga primero en el sistema VAR. En nuestro sistema, el componente común de x1 y x2 es totalmente atribuido a x1, porque x1 precede a x2; x1 es la innovación Y y x2 es la innovación X transformado o removido el componente común.

Más técnicamente los errores son ortogonalizados por una descomposición Choleski, así la matriz de covarianza resultante es triangular inferior (los elementos por encima de la diagonal principal son cero). La descomposición Choleski es extensamente usada, es un método un poco arbitrario de atribución de efectos comunes. Cambiando el orden de las ecuaciones, se puede cambiar dramáticamente las funciones impulso-respuesta, hay que tener cuidado con las interpretaciones de estas funciones.

Descomposición de la Varianza del error de  predicción.

La descomposición de la varianza de un VAR brinda información acerca de la potencia relativa de innovaciones aleatorias para cada variable endógena. Este ejercicio consiste en descomponer la varianza de las variables endógenas en componentes que permitan aislar el porcentaje de variabilidad de una endógena explicado por una de las innovaciones para distintos horizontes predictivos. Tal descomposición se obtiene luego de “ortogonalizar” el vector de perturbaciones ,que consiste en distribuir la responsabilidad de las correlaciones reflejadas en la matriz de covarianza entre los distintos componentes del vector de perturbaciones. La intensión al hacer explícita esta conexión entre el modelo originalmente estimado y el obtenido, es clarificar que el modelo obtenido una vez realizada la ortogonalización, no es una forma reducida, sino una forma estructural; y que por tanto, el proceso de ortogonalización es de hecho una forma de identificación. De esta manera se pueden  calcular las contribuciones de las innovaciones sobre el error de predicción del período siguiente. Es de esperar que en el corto plazo la propia innovación explique la mayor proporción  de este error.

Evaluación de política y análisis del poder predictivo de un  sistema VAR.

Uno de los objetivos finales de la Econometría y tal vez el que le dé mayor uso potencial, es la evaluación de políticas . Este objetivo se refiere a una situación en la cual los que realizan la toma de decisiones deben elegir una política, denominada “plan”, a partir de un conjunto de políticas alternativas dado. La evaluación de políticas esta íntimamente relacionada con la predicción y, al igual que la predicción, se asumirá que la elección de políticas es cuantitativa, explícita e inequívoca. De hecho, la predicción y la evaluación de políticas están interrelacionadas dentro de un sistema de retroalimentación: un pronóstico debe estar basado, en parte, en supuestos concernientes a la elección de quienes toman decisiones relevantes. A la inversa, la evaluación de políticas debe estar fundamentada, también en parte, sobre predicciones de los efectos  de las distintas políticas alternativas.

De esta manera el cálculo de las funciones impulso-respuesta y de descomposición de la varianza, sugieren las mismas interacciones dinámicas. Estas desviaciones fueron calculadas mediante un ejercicio de Montecarlo (bajo el supuesto que los errores tienen una distribución normal) utilizando la distribución a posteriori del operador autorregresivo. El método de Montecarlo es la única vía practicable para este cálculo dada la relación no lineal que existe entre las representaciones autorregresiva y de medias móviles.

Vectores Autorregresivos y Cointegración.[29]

Existe una relación simple entre la técnica de Vectores Autorregresivos y la Cointegración . Si las raíces características (eingenvalor) de la matriz de coeficientes del VAR son iguales a la unidad, las series de ambas son integrales de primer orden, pero no cointegrales ; si precisamente el número de raíces es uno, las series son cointegrales. Si ninguna de las raíces es unitaria, las raíces son estacionarias, de tal forma que no son integrales ni cointegrales.

¿Cómo se encuentra la relación cointegrable a partir del modelo VAR?  El procedimiento es el siguiente: encontrar las raíces características (eigenvalores) ; después, correspondiendo a cada raíz, encontrar el vector característico; luego construimos  una matriz con los vectores característicos obtenidos e invertimos dicha matriz, entonces, las columnas de esta matriz dan las combinaciones lineales requeridas .En la práctica es necesario probar las raíces unitarias. Esto se lleva a cabo por medio de la metodología de Johansen desarrollada en su obra: “Statistical Analysis of Cointegration Vectors”(1991).

Test de Cointegración en un Sistema VAR.

Un grupo de series de tiempo esta cointegrado si es que existe una combinación lineal estacionaria y dicha combinación no tiene una tendencia estocástica. La combinación lineal  es llamada “ecuación de Cointegración”. Su interpretación normal es  a largo plazo, estudiando las relaciones de equilibrio a largo plazo. Si tenemos “n” variables endógenas, cada una integral de primer orden (esto es, cada una con raíz unitaria o tendencia estocástica o con elementos de camino aleatorio), los cuales pueden ir desde cero a  n-1 con vectores cointegrados linealmente independientes, si esto no se cumple, se tendrían que aplicar primeras diferencias a la muestra hasta lograr su estacionariedad.

El test de Johansen determina el número de ecuaciones de Cointegración. Este número es llamado “rango de Cointegración”. Si hay n ecuaciones de Cointegración , las medias de las series están integradas actualmente y el VAR puede reformularse en términos de niveles de todas las series. El test aumentado de Dickey-Fuller (ADF) muestra que algunas de las series son integradas, pero el test de Johansen muestra que el rango de Cointegración es “n”. Esto una secuencia de modelos anidados , los modelos más restringidos, con el menor número de parámetros, no poseen ecuación de Cointegración, este es un VAR irrestricto en primeras diferencias. Cada ecuación de Cointegración añade parámetros asociados con el término de envolvencia  de niveles para las series que se añade a cada ecuación. El test de Johansen procura computar el ratio estadístico de verosimilitud (likelihood ratio) para cada ecuación de Cointegración añadida . Este test no tiene una distribución chi-cuadrado usual; la contrastación de estos estadísticos se debe realizar apatir de las tablas de Johansen y Juselius (1990) :

   99%                   95%                   90%
lTRACE
H0:r = 0

H1:r > 0

 

56.786                35.068                32.093

H0:r = 0

H1:r > 1

 

18.123                20.168                17.957

H0:r < 1

H1:r > 2

 

3.306                  9.094                  7.563

lMAX
H0:r = 0

H1:r = 1

 

56.786                21.894               19.796

H0:r = 1

H1:r = 2

 

14.123                15.252               13.781

H0:r = 2

H1:r = 3

 

3.306                  9.094                 7.563

 Metodología de Johansen (1991).

La especificación de esta metodología se basa en una generalización multivariada del procedimiento de Dickey y Fuller. Si Xt es un vector de n variables que siguen un proceso AR(1):

Xt = AtXt-1 + zt

Entonces, restando Xt-1 en ambos lados de la ecuación se obtiene:

DXt =  AtXt-1 – Xt-1 + zt  =  (At– 1 ) Xt-1 + zt  =  ÕXt-1 + zt

Si P es una matriz de ceros de tal forma que r(p)=0, entonces todas las variables son proceso con raíz unitaria (DXt = zt ) y no hay combinaciones lineales estacionarias de Xt, entonces las variables no cointegran. Si r(p) = j, entonces todas las variables son estacionarias.

Como el Dickey-Fuller aumentado (ADF) se puede generalizar, el modelo para un proceso de mayor orden se obtendría reparametrizando de la siguiente manera:

Xt = A1Xt-1 + A2Xt-2 + … + zt

restando Xt-1 de ambos lados:      DXt = ( A1 – I ) Xt-1 + A2Xt-2 + … + ApXt-p + zt

sumando y restando ( A1 – I )Xt-2 a la derecha:

DXt = (A1 – I )Xt-1 + (A2 + A1 -I)Xt-2 + A3Xt-3 + …+ApXt-p + zt

sumando y restando (A2 + A1 – I)Xt-3 a  la derecha:

DXt =(A1– I )DXt-1+(A2 + A1 -I )DXt-2+(A3+ A2+ A1 -I )Xt-3 +…+ApXt-p + zt

Sumando y restando sucesivamente se obtiene el algoritmo:   DXt = DXt-1 + PXt-p + zt   ,

donde P = -[ I – Aj ] ;P

Esta es la fórmula general, que no es otra cosa que el llamado Modelo de Corrección de Errores (MCE), en el que el ajuste se produce con “p” rezagos. Así note que el término de corrección hacia la relación de largo plazo es PXt-p, es decir un ajuste de dicha relación en el período t-p tiene efectos “p” períodos después. Esto lleva a que en general la especificación de este modelo tenga más bien un “p” bajo, ya que de otra forma la corrección del error tendría poco significado económico.

Dado  que la determinación del número de vectores de Cointegración depende del rango de P y, por ende, del número de raíces características distintas de cero de dicha matriz, se requiere utilizar un test para verificar dicho número. Si se tienen las “n” raíces de la matriz P(li ) donde l1 >l2>…>ln, se puede plantear dos test:

( 1 ) Ho : el número de vectores de Cointegración es £ r

l TRACE ( R ) = – T Ln ( 1- li ) , cuanto mayor número de ls sean iguales a cero, menor será el lTRACE..

(2) Ho : número de vectores de Cointegración = r.

(3) H1 : número de vectores de Cointegración = r + 1.

Test de Cointegración de Johansen

Tal como de menciono, este es un test de Cointegración muy usado con variables no estacionarias (series que presentan una clara inclinación a permanecer por encima o por debajo de su valor central en la muestra). El número de los vectores cointegrantes distintos entre sí pueden obtenerse chequeando la significancia de las raíces características (eigenvalue), sabiendo que el rango de la matriz es igual al número de sus raíces características diferentes de cero. El test de Johansen nos permite determinar la existencia de parámetros cointegrantes (ajuste a largo plazo) con sus respectivas “velocidades de ajuste” indicadas por los coeficientes de las variables cointegrantes.  A continuación, se utiliza la metodología del Modelo de Corrección del Vector de Error (VEC) para tener garantía de que el VAR contiene variables cointegradas.

La hipótesis que se plantea en este test es la siguiente:

H0 = No existe  Cointegracion.

H1 = Existe Cointegracion.

La idea es que al efectuar la prueba de Cointegracion, se rechaze estadísticamente la hipótesis nula de No Cointegracion lo cual asegura que tanto los signos y los valores de los parámetros esten acorde con la teoria economica y que la ecuación testeada se aproxime a su correcta especificación dinamica de largo plazo, lo cual asegura tambien que los estimadores de MCO de los parámetros de Cointegracion convergan asus valores de largo plazo mas rapidamente que con variables estacionarias.

 Metodología del Modelo de Corrección del Vector de Error (VEC) en un   VAR.

Como discreción próxima, el modelo VEC es un VAR restringido diseñado para series no estacionarias que sabemos se pueden cointegrar. La especificación VEC restringe la conducta a largo plazo para las variables endógenas para que converjan a sus relaciones de Cointegración, mientras que permitimos un extenso rango dinámico de corto plazo.

Como la especificación VEC sólo se aplican a series cointegradas, este se debe llevar a cabo una vez que ha pasado por el test de Cointegración de Johansen  como una especificación  VEC. Esto nos permite confirmar que las variables son cointegradas y así determinar el número de ecuaciones de Cointegración usando el procedimiento de Johansen. La primera diferencia para cada variable endógena es regresionada con un período de rezago en la ecuación de Cointegración y los primeros rezagos diferenciados en todas las variables endógenas es guiado por desequilibrios percibidos y asegura una eventual convergencia a la posición de equilibrio de largo plazo. Se pone de manifiesto otra de las características de las ecuaciones dinámicas: diferentes clases de ajustes realizados , por lo que un Vector de Corrección de Error (VEC) es un tipo de estructura VAR cointegrada. Para examinar mejor la estructura, consideremos un esquema que tenga media y que la ecuación de Cointegración tenga intercepto, especificando el VEC:

DY1,t = a1 + d0 (Y2,t-1 – m – bY1,t-1) + e1,t

DY2,t=  a2 + d1 ( Y2,t-1 – m -bY1,t-1) + e2,t

Aquí los interceptos de las ecuaciones están fuera del paréntesis, correspondiendo a una tendencia lineal.

Conclusiones

La metodología de Cointegración ofrece un procedimiento que cumple con varias características importantes: a) permite distinguir entre regresiones espurias y regresiones válidas, en el sentido que representan una relación estable de largo plazo entre las variables, con mecanismos de ajuste que tienden a disminuir las discrepancias que se presenten; b) permite combinar la metodología de series de tiempo con información de teorías económicas de equilibrio de largo plazo, con lo cual se eliminan muchas de las objeciones que se hacen a cada una de estas metodologías tomadas por separado; c) permite la mezcla de información de distinta periodicidad, por ejemplo, la ecuación de Cointegración podría hacerse con datos anuales y la de corrección de errores con información mensual[30] ; d) es relativamente fácil de aplicar, su uso consiste en la estimación de varias ecuaciones por mínimos cuadrados ordinarios, la dificultad principal estriba en la teoría estadística que esta por detrás de las pruebas, teoría que es mucho más  difícil que la teoría usual.

Uno de los problemas básicos al que uno se enfrenta al instrumentalizar la metodología VAR, es el de la rápida desaparición de los grados de libertad del modelo a medida que se incrementa la longitud de rezago. Para superar este inconveniente, se sugiere la estimación Bayesiana (BVAR). En este método se asignan distribuciones a priori a los coeficientes de las autorregresiones vectoriales para permitir que el análisis transcurra en un marco gaussiano.

La introducción de coeficientes que dependan del tiempo tiene como objetivo capturar posibles no linearidades en el vector estocástico modelado. Tal asignación puede realizarse mediante un proceso más o menos elaborado de búsqueda guiada por algún criterio de bondad de ajuste. Con respecto a la ley de movimiento de los coeficientes, se especifica algo cercano al “paseo aleatorio” (Random Walk) con un término de error cuya variabilidad es sensiblemente inferior a la introducida para los propios coeficientes. (esta ley de movimiento intenta reflejar la opinión de que demasiada variabilidad en los coeficientes tiende a empeorar los resultados obtenidos con el modelo. La experiencia respalda esta opinión).

El esquema de ortogonalización utilizado en esta metodología VAR es el denominado esquema de Choleski [31]. Este esquema especifica una matriz A0 triangular inferior con unos en la diagonal  principal. En este caso, la solución al problema de maximización es inmediata, puesto que con S diagonal existe una única manera de expresar una matriz positiva definida en la forma A0SA´0, por lo que la solución  es única. En general, sin embargo, en aras de un mayor realismo, el analista encuentra conveniente apartarse de la cadena de Wald que implica el esquema Choleski especificando estructuras para A0 distintas de la triangular. Sin embargo, el modelo obtenido una vez realizada la ortogonalización no es una forma reducida sino una forma estructural; y que, por tanto, el proceso de ortogonalización es de hecho una forma de identificación.

Los modelos tipo VAR han alcanzado una considerable aceptación como herramientas de predicción, cuyo objetivo es a partir de series temporales interpretar o diseñar conclusiones de política económica, incluso aplicables a modelos no lineales de equilibrio general. De hecho en la práctica usual de los predictores que usan VAR no es un enfoque completamente bayesiano, pero  puede interpretarse como aproximación al tratamiento ideal. A pesar de que este entorno general  no es  en esencia bayesiano, se pretende implementar a futuras extensiones el pleno tratamiento subjetivista bayesiano. El modelo planteado aquí, pretende facilitar la comunicación científica e indirectamente la toma de decisiones.

Vale la pena observar que “añadir variabilidad temporal” al sistema VAR no mejora automáticamente su comportamiento predictivo. Bajo algunas consideraciones del resto del modelo, el ajuste se maximiza a tasas muy bajas de variabilidad temporal [32],  y forzar variabilidad temporal en el modelo sin comprobar si mejora el ajuste puede generar importantes deterioros en el comportamiento predictivo, ya que se supone una mayor varianza de las perturbaciones siguiendo a períodos con mayores errores de predicción . Esto es similar a la especificación GARCH[33] pero difiere en que, lo que se supone que afecta a las varianzas de las perturbaciones son los errores de predicción reales generados por el filtro de Kalman, más que los errores de predicción ideales que se obtendrían si los parámetros fueran conocidos exactamente (como en modelos GARCH).

Incorporar covarianzas cruzadas de shocks en el análisis de las funciones impulso-respuesta, de una forma conceptual y computacionalmente factible es un importante tema abierto de investigación. Este aspecto se conecta con la crítica de “econometría no teórica” a los modelos VAR , ya que no emplean ninguna teoría económica, y con el exceso de parámetros a estimarse. Sims (1991) critico los modelos tradicionales de ecuaciones simultáneas sobre la base de que descansan sobre restricciones específicas en los parámetros, para lograr la identificación.

Según la metodología de Cointegración en sistemas VAR de Johansen, se rechaza la hipótesis nula de no Cointegración según los valores críticos de la tabla de Johansen & Juselius (1991). Los valores y signos de los parámetros estimados están acorde con la teoría económica, las ecuaciones se acercan a la correcta especificación de largo plazo, y los estimadores MCO de los parámetros de Cointegración convergen a sus valores de largo plazo más rápidamente que con variables estacionarias.

La metodología esta todavía en desarrollo, hace falta bastante trabajo, por ejemplo, en la estimación de modelos de ecuaciones simultáneas, donde falta la teoría de distribución, la cual parece ser sumamente complicada; lo mismo sucede con el análisis de Cointegración no lineal.

En resumen se trata de una teoría que parece muy adecuada para una buena cantidad de problemas que se presentan en economía.

 BIBLIOGRAFÍA

  • ANDERSON,T.W. y C.SHIAO (1981): “ Estimation of dynamic models with error components”. Journal of American Statistical Association. # 76, págs 598-606.
  • BOX,G.E.P y G.M.JENKINS (1970): “Time series analysis,forecasting and control”. San Francisco, Holden day. Págs. 87.
  • DICKEY,D.A y W. FULLER (1984): “Testing for unit roots in seasonal time series”. Journal of the American Statistical Associations, # 79, págs. 355-367.
  • ENGLE,R. y W.GRANJER (1987): “Cointegration and error correction representation, estimation and testing”. Econometrica # 55. Págs 251-276.
  • GRANJER,C. y P.NEWBOLD (1974): “Spurious regressions in econometrics”. Journal of econometrics # 2. Págs 111-120.
  • HENDRY, DAVID and RICHARD , JEAN FRANCOIS . (1983): “The econometric analysis of economic time series”, International Statistical Review, N° 51 , 1983.
  • ROTHENBERG,T.J. y C.T.LEENDERS (1964): “Efficient estimation of simultaneous equations systems”. Econometrica # 32, págs 57-59.
  • SARGAN,J. y A.BHARGAVA. (1983):”Testing residuals from least squares regression for being generated by the Gaussian random walk” . Econometrica # 51, págs 153-174.
  • SALKEVER, F, KENNETH. (1972): “The use Dummy variables to compute predictions error, and confidence intervals.”. Journal of econometrics # 4, ,págs 393-397.
  • SIMS, CHRISTOPHER:
  • (1980): “Macroeconomics and reality”, Econometrica # 48, January. Págs 165-192.
  • (1986): “Are forecasting models usable for policy analysis?. Federal Reserve Bank of Minneapolis, Quarterly Review Winter. Págs 154.
  • (1987):  “Identifying policy effects”. Federal Reserve Bank of Minneapolis Research Department. Working paper 351. May. Págs 145.
  • (1991): “Macroeconometrics: A explanation”. Federal Reserve of Minneapolis. Págs 142.
  • TRUJILLO CALAGUA, GUSTAVO H :
  • (1998)  “Un modelo econométrico para el Perú sobre la dinámica del desequilibrio fiscal y el proceso inflacionario en el período 1985-1995: Aplicación de la técnica de Vectores Autorregresivos”, Tesis de Licenciatura .
  • (1999) “Demand money in Peru: a Methodology Cointegration Test”, Tesina VPISU – USA.
  • (2003) “Econometría Aplicada con Eviews 4.1”, 1era Edición

Trabajo enviado por:

Gustavo Herminio Trujillo Calagua,

Economista de la Universidad Nacional Federico Villareal Lima-Perú. Maestría en Economía Matemática y Doctor en Economía por Virginia State University, Blacksburg – USA.

Consultor de Negocios.

Profesor Asociado de la Escuela de Ingeniería Económica de la Universidad Científica del Sur, Lima-Perú.

Profesor Auxiliar de la Escuela de Administración de la Universidad Privada San Pedro, Cajamarca-Perú.

Profesor Auxiliar de la Escuela de Economía de la Universidad Nacional de Cajamarca, Cajamarca-Perú.

Gtrujillo@ucsur.edu.pe

gustavotrujillo@viabcp.com

 LA METODOLOGÍA DE LAS RAÍCES UNITARIAS, COINTEGRACIÓN , VECTORES AUTORREGRESIVOS  Y ESTABILIDAD DE PARÁMETROS:

 APORTADO POR: Gustavo Herminio Trujillo Calagua –  trujillo@ucsur.edu.pe

gustavotrujillo@viabcp.com 

[1] Ver por ejemplo Yule (1926) y Working (1934).

[2] Con ampliación en Granger y Newbold (1977) y Granger y Newbold (1988).

[3] En el artículo anteriormente citado.

[4] Phillips (1986).

[5] Una presentación de estos resultados en forma algo más sencilla que la de Phillips (1986) puede encontrarse en Dolado, Jenkinson (1987).

[6] Ver Phillips (1986).

[7] En los dos primeros trabajos citados.

[8] Ver por ejemplo Hall (1978), Nelson y Plosser (1982) y muchos otros.

[9] Ver Phillips (1986), Phillips 91987), Phillips y Durlauf (1986) para los desarrollos teóricos.

[10] Las referencias más importantes son Engle y Granger (1987), Granger (1986).

[11] Dolado and Jenkinson (1987), Hendry (1986).

[12] Para una descripción y análisis de estos tres enfoques teóricos usados para diseñar pruebas de hipótesis ver Cramer (1986).

[13] Dickey y Fuller (1979)

[14] Dickey y Fuller (1981)

[15] A la probabilidad de rechazar la hipótesis nula cuando esta es falsa.

[16] Sargan y Bhargava (1983) y Bhargava (1987)

[17] Para más detalles, ver Mackinnon (1991).

[18] La versión 3.0 de MICROFIT y del EVIEWS ofrece las pruebas DF y ADF automáticamente y un número reciente de pruebas que no son discutidas en este artículo (e.g. Test de Cointegración de Johansen). Los manuales contienen un buen resumen de la teoría al respecto, ver Pesaran y Pesaran (1991) y QMS(1998).

[19] Zivot, Eric y Andrews, Donald W.K., 1992, “Further Evidence on the Great Crash, the Oil-Price Shock and the Unit-Root Hypothesis”, Journal of Business and Economic Statistics vol.10, nr.3, pp. 251-270.

[20] Ver  tabla tomada de Engle y Yoo (1987) p. 157.

[21] Ver Granger (1983), Granger & Engle (1985), Engle y Granger (1987).

[22] Sargan (1964), Davidson, Hendry, Srba y Yeo (1978)

[23] El Problema de la Estabilidad de Parámetros, Paper de Investigación XXXVIII Curso de Extensión Universitaria BCRP 1991, Jorge Cortez Cumpa.

[24] El punto de quiebre o “Break Point”es la presumible fecha en la que el modelo converge asintoticamente a  tener inestabilidad parametrica  producto de cambios estructurales que desalinean la relación estimada.

[25] G. Chow, Test of Equality Between sets of Coefficiente in two linear regressions, Econometrika 1960, Vol. 28, pp. 591-605.

[26] Para una ilustración detallada  sobre este punto ver: “Un Modelo Econométrico para el Perú sobre la dinámica del desequilibrio fiscal y el proceso inflacionario en el período 1985-1995: Aplicación de la técnica de Vectores Autorregresivos”, Tesis de Licenciatura en economía , Gustavo Trujillo Calagua  Lima 1998 UNFV.

[27] Ver C. Sims: “Methodology of Autorregressions Vector” 1980.

[28]  Para una exposición más detallada ver J.Hamilton  : “Time series analisys” (1994), Princeton University Press.

[29]  Ver Gustavo Trujillo C, “Demand Money in Peru: a Methodology Cointegrations Test” , Thesis Msc – Virginia Polytechnic Institute and State University.

[30] Engle, Granger y Hallman (1989) traen un ejemplo de esto, aplicado a proyecciones de demanda de energía eléctrica.

[31] C. Sims (1980)

[32] Véase: Doan, Litterman y Sims (1984).

[33] Véase, por ejemplo, Engle (1982).

Hazle saber al autor que aprecias su trabajo

1+
Tu opinión vale, comenta aquí

Comentarios

Compártelo con tu mundo

Cita esta página
Trujillo Calagua Gustavo Herminio. (2004, abril 6). Cointegración en el análisis econométrico de series de tiempo. Recuperado de https://www.gestiopolis.com/cointegracion-en-el-analisis-econometrico-de-series-de-tiempo/
Trujillo Calagua, Gustavo Herminio. "Cointegración en el análisis econométrico de series de tiempo". GestioPolis. 6 abril 2004. Web. <https://www.gestiopolis.com/cointegracion-en-el-analisis-econometrico-de-series-de-tiempo/>.
Trujillo Calagua, Gustavo Herminio. "Cointegración en el análisis econométrico de series de tiempo". GestioPolis. abril 6, 2004. Consultado el 25 de Agosto de 2019. https://www.gestiopolis.com/cointegracion-en-el-analisis-econometrico-de-series-de-tiempo/.
Trujillo Calagua, Gustavo Herminio. Cointegración en el análisis econométrico de series de tiempo [en línea]. <https://www.gestiopolis.com/cointegracion-en-el-analisis-econometrico-de-series-de-tiempo/> [Citado el 25 de Agosto de 2019].
Copiar
Imagen del encabezado cortesía de ccordova en Flickr