Anda di halaman 1dari 45

4.

CAPTULO 4
MODELOS DE SERIES DE TIEMPO
UNIVARIADAS NO ESTACIONARIAS
En los captulos anteriores se ha supuesto que las variables eran estacionarias o,
alternativamente, que el econometrista saba qu tipo de transformacin resultaba pertinente para
volver estacionaria una variable que no lo era. El objetivo de este captulo es introducir al lector en la
econometra de variables no estacionarias. Para ello, lo primero que se hace es discutir las profundas
diferencias que tienen procesos estacionarios y no estacionarios. Posteriormente se desarrollan los
elementos centrales de la teora asinttica para procesos no estacionarios. Finalmente se discuten
varios tests que permiten dilucidar empricamente la naturaleza de las variables y el tratamiento
adecuado que se debe darle.

4.01 REPRESENTACIONES DE TENDENCIAS EN ANLISIS UNIVARIADO


Muchas de las variables econmicas ms comnmente usadas tienen tendencia (p.e., PIB,
nivel de precios). Cuando estudiamos la metodologa Box-Jenkins o los modelos VAR, el problema
de remover la tendencia de las series fue soslayado, sealando que bastaba con hacer una regresin
contra una tendencia lineal o tomar primeras diferencias. Exactamente cundo usar cada mtodo es
lo que nos preocupa en esta seccin.
Hay dos maneras de describir tendencias. Como de costumbre, consideramos las variables
en logaritmos, de modo tal que sus cambios corresponden a su tasa de crecimiento.
Aquellas variables que tienen tendencia determinstica se pueden modelar como:
y t= t L t

(4.1)

donde y son dos parmetros y (L) es la representacin media mvil de un modelo ARMA(p,q)
para las innovaciones t. La remocin de tendencia correspondera a obtener una serie filtrada del
tipo y t
t .
Aquellas variables que tienen tendencia estocstica1 () se pueden modelar usando primeras
diferencias, es decir como
1 L y t = * L t

(4.2)

1 Usaremos deriva o tendencia estocstica, equivalente al trmino ingls drift, reservando el trmino tendencia para la
tendencia determinstica. El diccionario de la Real Academia de la Lengua seala que deriva es una variacin lenta y
continua de una propiedad que puede ser medida respecto de un valor, direccin o punto preestablecido.

4.2
Vamos a estudiar las diferencias entre el modelo de la ecuacin (4.1) y el de la ecuacin (4.2),
para concluir que stos son radicalmente diferentes en tres dimensiones: la naturaleza de los errores
de prediccin asociados a cada proceso, la varianza de dichos errores de prediccin y la persistencia
de las innovaciones de cada proceso.
Consideremos primero el error de prediccin de una variable descrita por la ecuacin (4.1) y
re-escribamos el proceso ARMA de manera extensiva:
11 L2 L2 ... p L p t =11 L2 L 2... q Lq t

(4.3)

es decir,
t=

11 L 2 L2...q L q
2

11 L 2 L ... p L

(4.4)

o sea, el modelo ARMA(p,q) incluido en la ecuacin (4.1) es perfectamente general y corresponde a:


11 L 2 L2... q L q
t=
Lt
11 L1 2 L ...1 p L t

(4.5)

Cuando se cumple sumabilidad absoluta (absolute summability)

| j | , entonces
j=0

i1

y la variable es estacionaria alrededor de la tendencia determinstica .


Supongamos por otro lado que 1=1 y i1 con i=2, ..., p. Entonces:
1 1 L2 L2...q L q
1Lt =
t * Lt
1 2 L ...1 p L

(4.6)

donde ahora se cumple sumabilidad absoluta para la secuencia de *, es decir,


1L y t=1 L 1L t 1L t
= * L t

| *j | . As,
j=0

(4.7)

El proceso descrito en la ecuacin (4.7) para la primera diferencia de la variable es invertible,


en tanto que el proceso implcito en la ecuacin (4.6) para el nivel de la variable no es estacionario
pues posee una raz unitaria. Tambin se le llama proceso integrado. Lo que seala la ecuacin (4.7),
entonces, es que un proceso integrado de orden 1 (slo un i =1) se vuelve estacionario al tomar la
primera diferencia de la serie.
Obviamente si tenemos una serie que cumple 1=2=1 y |i|<1 con i=3, ... , p habrn dos
races unitarias. En tal caso, la segunda diferencia de la variable 1L2 y t = ' ' L t es
estacionaria, en tanto que y t y y t no lo son. Resulta comn denominar a las series de tiempo

4.3
por su nivel de integracin de forma tal que el proceso anterior es I(2) y el proceso de la ecuacin
(4.2) es I(1), en tanto que el proceso de la ecuacin (4.1) es llamado I(0).
Qu tan distintos son estos procesos? En trminos visuales usualmente resulta
prcticamente imposible diferenciar una variable integrada de una estacionaria, en particular cuando
la muestra es pequea. La Figura 4.1 presenta una realizacin completamente aleatoria de un proceso
estacionario AR(1) y un proceso no estacionario paseo aleatorio (random walk) con una pequea
tendencia estocstica de tamao 0.05.2

Figura 4.1
Simulacin de procesos artificiales estacionarios y no estacionarios

Predicciones3
Para el proceso estacionario en tendencia podemos usar la representacin media mvil del
error para computar:
y t s | t=ts s t s1 t 1...

(4.8)

es decir, la prediccin incluye la constante , el crecimiento secular de la variable (t+s) y el


efecto de las innovaciones que an estn presentes en el instante t (es decir, t, t-1, t-2...) pero
ponderados por el impacto que tienen en el instante s (s, s+1, s+2, ...).
2 Reflexionando sobre el tema de la persistencia de las tendencias, el Vicepresidente de Estados Unidos, Dan Quayle
seal: I believe we are on an irreversible trend toward more freedom and democracy - but that could change.
3 Those who have knowledge, don't predict. Those who predict, don't have knowledge, Lao Tzu, poeta chino, siglo VI A.C.

4.4
Debido a que se cumple sumabilidad absoluta, se obtiene
2

E [ y t s |t ts] 0

si

(4.9)

es decir, en el largo plazo las innovaciones van a desaparecer y lo nico que queda activo en la
prediccin es la parte determinstica.
Para el proceso estacionario en diferencia podemos usar la representacin media mvil del
proceso en primera diferencia y luego restar y t , para obtener:
y t s | t= y t s s s1...1 t
s 1s ... 2 t 1
s 2 s1... 3t 2
...
Prueba:

(4.10)

Primero predecimos la tasa de crecimiento del periodo t+s


y t s | t = s t s 1 t 1 s 2 t 2 ... . El nivel de la serie es la suma de
las tasas de crecimiento ms el nivel inicial y ts | t = y t s y t s 1 ... y t . Por lo
tanto y t s t = y t s y t s 1 ... y t , de donde se deduce la ecuacin (4.10).

Es decir, vemos que la prediccin en t+s en el caso de las variables integradas depende de la
posicin inicial de la serie, y t , en tanto que en los modelos de variables estacionarias no. 4 El
intercepto en modelos de variables estacionarias es fijo (), en tanto que en series integradas depende
de la historia de la variable. Para cada instate t en el que se haga la prediccin habr un distinto
punto de partida, y t . En segundo lugar, si no es cero, la serie tiene tasa de crecimiento pero, a
diferencia de los variables estacionarias, sta no es determinstica (constante) sino estocstica: para
deducirlo basta con tomar el valor esperado de la ecuacin (4.2). En tercer lugar, en la prediccin del
proceso I(1) la parte estocstica de la tasa de crecimiento representada por la historia de las
innovaciones t afecta permanentemente el nivel de la variable y t en tanto que en las variables
estacionarias no. En resumen, el intercepto en variables estacionarias en tendencia es fijo, en
cambio en variables estacionarias en diferencia depende de la historia y la innovacin
contempornea.

Errores de Prediccin
De las ecuaciones (4.1) y (4.8) resulta directo demostrar que el error de prediccin de una
variable estacionaria en tendencia es la suma ponderada de las innovaciones futuras:
y t s | t y t s=t s 1 t s12 t ss... s1 t1

(4.11)

Si las innovaciones son i.i.d., el error cuadrtico medio (ECM) de la prediccin es:

4 Esto implica que la ubicacin de la variable integrada es, entonces, dependiente de la historia. En algn sentido a las
series de tiempo no estacionarias se le aplica la clebre frase de Herclito Nadie se baa dos veces en el mismo rio.

4.5
E [ y t s |t y t s ]2 =[ 121 22...2s1 ] 2

(4.12)

Evidentemente, el ECM aumenta con s pero debido a la propiedad de sumabilidad absoluta


converge a un valor finito. En particular:

lim s E [ y t s| t y t s ] =[ 11 2... ]
2

(4.13)

De las ecuaciones (4.2) y (4.10) resulta directo pero ms largo demostrar que el error de
prediccin de una variable estacionaria en diferencia es:
y t s y t s | t=t s1 1t s111 2 t s2 ...

(4.14)

Nuevamente, si las innovaciones son i.i.d., el ECM de la prediccin asociado es:

E [ y t s |t y t s ] =[ 111 11 2 ... ]
2

(4.15)

ahora el ECM aumenta con s pero no converge.


Notemos que, como el ECM crece linealmente con s, la desviacin estndar de la prediccin
crece con s . Si 0 , la serie crece linealmente con s. As, un intervalo de confianza estndar de
la prediccin hecho al 95% crece ms lento que la serie.5 La conclusin es que:

si observamos una serie integrada por largo tiempo, sta va a crecer en el largo plazo.

la tendencia estocstica va a dominar la estocasticidad creciente que proviene de la raz


unitaria.

La figura siguiente presenta de manera grfica las dos caractersticas diferenciales entre los
procesos estacionarios en tendencia y los procesos estacionarios en diferencias.

5 Any forecast can be made to look good by an appropriate measure, Hendry's Forecasting Theorem.

4.6
Figura 4.2a

Figura 4.2b

Prediccin de un Proceso I(0)

Prediccin de un Proceso I(1)

14

14

12

12

10

10

5
3

9
7

13
11

17
15

21
19

5
3

9
7

13
11

17
15

21
19

Persistencia de las Innovaciones


Otra manera de entender la diferencia entre procesos integrados y estacionarios es en
trminos de la persistencia de sus innovaciones. Como se desprende de la ecuacin (4.8), en una
variable estacionaria en tendencia los multiplicadores dinmicos son:
y t s
=s
t
El hecho que se cumpla sumabilidad absoluta implica que

(4.16)
lim s y t s
=0 .
t

Por otro lado, en una variable estacionaria en diferencia los multiplicadores dinmicos se
derivan de la ecuacin (4.10) y son:
y t s y t
=
s s1.. 1=112..s
t
t

(4.17)

por lo tanto tiene efectos permanentes (note el valor 1 en la ecuacin 4.17).

Remocin de Tendencias
Como hemos visto, la forma que tome la tendencia de una variable determinstica o
estocstica implica notables diferencias para el proceso generador de los datos. No resulta
sorprendente que la manera de remover las tendencias de las series de tiempo sea un tema central en
el anlisis de los modelos de series de tiempo. Consideremos la aplicacin de lo que hemos
aprendido:

4.7

La manera correcta de remover la tendencia en series estacionarias en tendencia es quitar la


tendencia determinstica. Esto se hace mediante el pre-filtrado de las series usando una
regresin lineal de la variable contra una secuencia aritmtica lineal.

La manera correcta de remover la tendencia en series estacionarias en diferencias es tomar la


diferencia de orden d, tal que 1L d y t sea estacionaria.

El problema radica en que resulta imposible saber si una variable aleatoria es I(0) o I(1) por
observacin de una muestra particular. Qu sucede si nos equivocamos en el mtodo de remocin
de la tendencia?

Si una variable estacionaria en diferencias es pre-filtrada para remover la tendencia


determinstica, la(s) raz(es) unitarias(s) no ha(n) sido removida(s).

Si diferenciamos una serie que es estacionaria en tendencia determinstica obtendremos


1L y t= 1 L L t

(4.18)

la variable resultante tiene una representacin que no es invertible. Un primer problema de


una representacin no invertible es que posiblemente sta ser no estacionaria. Un segundo
problema es que los algoritmos de estimacin requieren el uso de la representacin invertible
del proceso (ver Hamilton (1994) para los detalles).
Como puede verse, el problema de remocin de tendencia es importante. En realidad, la
correcta caracterizacin de una variable como estacionaria o no estacionaria es fundamental por la
presencia de dos fenmenos que estudiaremos un poco ms adelante. En primer lugar, los
estimadores clsicos (mnimos cuadrados o mxima verosimilitud) no conservan sus propiedades en
modelos que incluyen variables no estacionarias, sean como regresores o variables de inters. Esto
implica que los tests de hiptesis estarn distorsionados. En segundo lugar, y ms importante, la
presencia de variables integradas suele llevar al problema de correlacin espuria, es decir, a obtener
como resultado parmetros aparentemente significativos y altas bondades de ajuste cuando las
variables no estn efectivamente relacionadas entre s.
Para derivar tests que nos permitan discriminar la naturaleza de las variables econmicas
estudiaremos primero las propiedades asintticas de los estimadores clsicos de mnimos cuadrados
cuando las variables son estacionarias y luego sus contrapartes cuando las variables son no
estacionarias. De esta comparacin se derivarn los principales resultados respecto del impacto del
impacto de las variables integradas sobre los tests de hiptesis y se demostrar la necesidad de usar
distribuciones particulares para los diferentes tests de races unitarias que se utilizan frecuentemente
en la prctica.

4.8

4.02 TEORA ASINTTICA PARA PROCESOS CON TENDENCIAS DETERMINSTICAS


Hasta el momento slo hemos sealado que los procesos estacionarios y no-estacionarios
son de naturaleza muy distinta respecto de su representacin, memoria, y predicciones. Pero, en
realidad, las diferencias son mucho ms profundas.
Consideremos un modelo simple
y t= z t t

(4.19)

si t es un proceso Gaussiano y zt es una (o ms) variable determinstica, entonces los estimadores de


mnimos cuadrados de los parmetros en una muestra de tamao T son:
1

[ ] [ ] [ ]

T = T =
T

t=1

xt x t '

T =1

xt yt

(4.20)

con x t '=[1 z t ] , de donde se desprende que


1

] [ ] [ ]


T = T
=
T

t=1

x t xt '

T =1

x t t

(4.21)

La distribucin lmite se obtiene de manera directa

1
T T =
T

t=1

xt xt '

][

1
T

xt

T =1

(4.22)

el primer trmino converge en probabilidad a Q-1 (condiciones de Grenander).

el segundo trmino converge en distribucin a N 0, 2 Q1 por el teorema del lmite


central.6
Por lo que

T T d

N 0, 2 Q1 .

Suponga ahora que z incluye una variable estacionaria alrededor de una tendencia
determinstica. La manera ms simple de ver el efecto de una variable no estacionaria es suponer que
hay una tendencia lineal z = t, entonces x = [1 t] y por lo tanto:

6 Un tratamiento simple de teora asinttica se encuentra en Greene (1997) cap. 6.

4.9

][

T
=
T

1 t
t t2
T

es directo demostrar que

t =1

][ ]
t
t t

(4.23)

T T 1
en tanto que
t=
2

t 2=
t =1

T T 12T1
.
6

Por lo tanto:

x t x t ' = 1 t2
t =1
t t

] [
=

T
T T 1/ 2
T T 1/2 T T 1 2T1/6

(4.24)

1
x t x t ' diverge. De esta manera, no se cumple el supuesto que el
T
primer trmino de la ecuacin (4.22) converge en probabilidad a una matriz positiva definida (Q).

entonces cuando T,

Para que el denominador converja podemos pensar en usar alguna transformacin del
estimador (trasformacin estabilizadora) que evite que la matriz de momentos de los regresores
diverja. Por ejemplo, podramos usar T 3 x t x t ' . El problema es que tal transformacin, si bien
0 0
evita la divergencia, produce una matriz que no es invertible porque converge a Q=
.
0

[ ]

Otra cosa que resulta evidente de la inspeccin de la ecuacin (4.23) es que y


convergen a sus parmetros poblacionales a distinta tasa en trminos del tamao de muestra.
Necesitamos una manera alternativa de tratar el problema. Para encontrar una distribucin
lmite no degenerada, usamos una transformacin distinta para cada estimador. En particular:

T =

T 1/ 2 0
3 /2
0 T

(4.25)

para premultiplicar (transformar) la ecuacin (4.21). As los nuevos estimadores son:

] [ ][ ]
[ ] [ ]
T

T T = x x '
T
t
t
3 /2

t =1

t =1

T =1

=T

xt

xt xt '

(4.26)

T 1
T

T =1

x t t

Ahora estudiamos el inverso del primer trmino de la segunda igualdad:


T

t =1

x t xt '

[ [

T = 1
T

t =1

] ] [
1

xt xt '

1
T

T 1 1 T 2 t
T 2 t T 3 t 2

(4.27)

4.10

1 1/2
que obviamente converge a Q=
.
1/2 1/3
Por otro lado, al estudiar el segundo trmino de la ecuacin (4.26) descubrimos que el
teorema de lmite central es aplicable, por lo que ste es asintticamente normal:
1

[ ] [
T

1
T

x t t '

=T

t =1

1 / 2

T 3/ 2

][

t
t t

1
T

1
T

T t

(4.28)

Finalmente de las ecuaciones (4.27) y (4.28) obtenemos que:

] [ ] [

T T d N
3 /2
T

0 , 2 1 1/ 2
0
1 /2 1 /3

]
1

(4.29)

el estimador de la constante converge como siempre que se trate de variables estacionarias a tasa
T , pero el estimador del parmetro de la variable con tendencia (determinstica) es superconsistente
porque converge a tasa T 3 /2 .
En general para referirnos al tipo de convergencia de las variables usamos el concepto de
orden de probabilidad. Suponga que existen dos secuencias de nmeros reales, a y b. La notacin
a n=O b n corresponde a a es al menos del orden de bn, en tanto que a n=ob n corresponde a a es
de un orden menor a bn. Formalmente,

a n=O b n cuando n si lim a

a n=ob n cuando n si lim a

an
K y K0
bn

| an
=0
bn

Por ejemplo, en la ecuacin (4.29) el orden de probabilidad del estimador de es OT 1 / 2


en tanto que el orden del estimador de la tendencia es OT 3 / 2 .

4.03 TEORA ASINTTICA PARA PROCESOS CON TENDENCIAS ESTOCSTICAS


Hemos aprendido que si las variables son no estacionarias, los estimadores de mnimos
cuadrados del parmetro no se distribuyen de acuerdo a la teora asinttica convencional. Para
encontrar cmo y a qu converge un proceso con tendencia estocstica debemos introducir dos
conceptos adicionales: procesos Brownianos y el funcional del teorema de lmite central. La razn de

4.11
usar este tipo de matemtica radica en que la existencia de procesos integrados nos obliga a trabajar
con secuencias infinitas y con funciones de stas.
Tomemos un modelo AR(1) con parmetro , es decir, y t= y t 1 t con y0=0 e
innovaciones t N(0,). El estimador de mnimos cuadrados de en una muestra de tamao T
es:
T

y t y t1

t = t =1T

(4.31)

y
t=1

2
t 1

donde hemos aprovechado el hecho que y0 es conocida e igual a cero. Se puede demostrar que si
1 , entonces

T T N 0,1 2 2

(4.32)

Cuando =1 entonces la ecuacin (4.32) converge a una distribucin degenerada con


varianza cero, lo que es un resultado vlido pero impide la inferencia.
Para encontrar la distribucin asinttica no degenerada multiplicamos la ecuacin (4.31) por
T en vez de T , para el caso en que el verdadero parmetro es 1.
T

T t 1=

1
y
T t =1 t 1 t

(4.33)

1
y2
2 t 1
T t =1

Necesitamos determinar a qu converge el numerador y el denominador de la ecuacin


(4.33). Consideremos primero el numerador. Si =1, entonces y t es un proceso paseo aleatorio, es
decir, y t= yt 1t= y t 2t t 1=tt 1t 2... , por lo que y t N 0, 2 t . Ms an, para
2
este tipo de proceso se cumple que y 2t = y t 1t = y 2t 1 2y t1 t 2t , por lo que:
y t1 t =

1 2 2
[ y y t12t ]
2 t

(4.34)

sumando para todo t obtenemos:


T

t =1

t =1

y t 1 t= 12 [ y 2T y 20 ] 12 2t
pero y0=0, por lo que:

(4.35)

4.12
1
T

y t1 t =1 /21 /T y 1/21/T 2t
2
T

t=1

(4.36)

t=1

dividiendo la ecuacin (4.36) por obtenemos


1
2T

t=1

[ ]

yT
y t1 t =1 /2
T

1/21/ T 2t
2

(4.37)

t =1

El primer trmino del lado derecho de la ecuacin (4.37) es una N(0,1) al cuadrado, es decir
2(1). El segundo trmino es una suma de cuadrados de variables i.i.d. con media cero y varianza ,
1
1 2
2
2
por lo que t p . As, la ecuacin (4.36) converge a [ 11 ] .
T
2

Ahora estudiamos el denominador de la ecuacin (4.30). Como y t1 N 0, 2t 1 ,


T

t =1

t=1

entonces E [ y 2t1 ]= 2 t1 E [ yt21 ]= 2 t 1= 2 T 1

T
para que converja tiene
2

que ser dividido por 1/T 2 .


En resumen, si el verdadero proceso es un paseo aleatorio, la desviacin del estimador de
mnimos cuadrados de respecto de su verdadero valor, es decir ( T 1 ), debe ser multiplicada
por T (no T ) de modo que tenga una distribucin no degenerada.
Dicha distribucin es, por lo dems, una razn entre una (1) y una distribucin no
estndar. Para caracterizarla necesitamos dos elementos ms de anlisis: movimientos Brownianos y
el Funcional del Teorema de Lmite Central.

4.13

4.04 MOVIMIENTOS BROWNIANOS7 Y PROCESOS DE WIENER


Tomemos un proceso tipo paseo aleatorio y t= yt 1t . Consideremos la innovacin
t = y t y t 1 como proviniendo de una distribucin N(0,1). Entonces, y t=t t1...1 y por
lo tanto, y t N 0, t . Consideremos y t y s=t1t 2 ... s , entonces se cumplen las siguientes
propiedades:

[ y t y s ] N 0, st

[ y t y s ] es independiente de [ y r y q ] si r qst .

Supongamos, ahora, que t est compuesto de dos procesos Gaussianos independientes,


donde cada uno es una realizacin de una distribucin N(0,):
1

t=et e t

donde podemos pensar que e1 corresponde a una parte de y, digamos e 1t = y t y t 1 .


Obviamente, e 2t = y t y t . Es decir, el incremento del paseo aleatorio podra ser pensado como el
incremento de medio t primero y otro medio t despus, tal que cada pedazo es en s un paseo
aleatorio. Note que estos procesos et tambin verifican las propiedades descritas.
Si hacemos el mismo ejercicio fraccionando el intervalo en k trozos, se obtienen los mismos
resultados. Si hacemos tender k, obtenemos un proceso continuo, llamado proceso Browniano
estndar (standard Brownian motion) o proceso de Wiener8 y lo denominamos como W(t). Podemos
pensar que es un paseo aleatorio, pero haciendo el intervalo infinitamente pequeo.9

7 En 1827 el botnico escocs Robert Brown descubri que los granos de polen suspendidos en agua se movan a
brincos siguiendo un patrn de zigzag. En realidad el primero en observar este fenmeno fue Jan Ingenhousz en
1785 pero pas desapercibido hasta que fu redescubierto por Brown (providencialmente, el olvido nos evit hablar
de procesos Ingenhouszianos). En 1889 G.L. Gouy descubri que los movimientos Brownianos ocurren en
partculas pequeas (no en autos o personas) y son ms rpidos mientras ms pequea es la partcula. La primera
explicacin del fenmeno es la de Desaulx (1877): In my way of thinking, the phenomenon is a result of thermal molecular
motion in the liquid environment (of the particles). Efectivamente, una partcula suspendida est constantemente sujeta a
innovaciones aleatorios de todos lados por las molculas del lquido. Si la partcula es relativamente pequea, las
innovaciones aleatorios harn saltar a la variable instantneamente. El primer modelo matemtico the Brownian motion
fue desarrollado por A. Einstein en 1905 (por lo que recibi el premio Nobel).
8 Norbert Wiener fue un matemtico norteamericano considerado el padre de la ciberntica. A la edad de 11 aos
entr a la universidad a estudiar matemticas, recibiendo su Ph.D en lgica matemtica a la edad de 18 aos.
9 Este anlisis recuerda la clebre paradoja de Zenn de Elea (490 AC- 430 AC) segn la cual el ms rpido de los
hombres, Aquiles, no podr alcanzar nunca al ms lento de los animales, la tortuga, si se da a sta una ventaja inicial
en una carrera. Pues, mientras Aquiles recorre el camino que la tortuga llevaba por la mencionada ventaja inicial, la
tortuga habr recorrido otra porcin, aunque ms pequea. Cuando Aquiles haya llegado a recorrer esta ltima
porcin de camino, la tortuga habr avanzado otra porcin ms pequea, y as la tortuga llevar siempre la ventaja
hasta en espacios infinitamente pequeos, con lo cual, Aquiles no podr alcanzarla nunca. Zenn conclua que al
sumar infinitos nmeros se obtendra infinito, sin importar el tipo de nmeros que se sume. Sin embargo, al reducir
la suma a lmites de secuencias se observa que este argumento es falso en el caso de la paradoja.

4.14
Una manera de visualizar qu es lo que implica este fraccionamiento se muestra en la
Figura 4.2. En el panel izquierdo se ha graficado un paseo aleatorio y se ha cortado la curva en ocho
trozos. Ntese que cada trozo es de igual ancho, pero de distinto alto. En el panel derecho se ha
cortado la curva en 24 trozos. Como resulta evidente, el ajuste en este caso es muy superior. Si
hacemos un fraccionamiento infinitamente angosto, entonces podremos replicar la evolucin de la
curva completamente y habremos pasado de tiempo discreto a contnuo.
Figura 4.2
Paseo aleatorio y funcin peldao

t+1

Este proceso tiene tres caractersticas. Primero, es un proceso Markoviano. Es decir, la


historia futura slo depende la posicin actual de y, pero no del pasado. Segundo, los incrementos
son independientes; en principio, ellos pueden ser i.i.d. Tercero, los incrementos se distribuyen
normal.
En trminos de la Figura 4.2, considere que la variable se ubica en el punto A en el instante
t. Su ubicacin en el instante t+1 slo depeder de su posicin inicial (el punto A) y de la magnitud
de la innovacin que recibe en el instante t+1. Que el incremento sea normal slo dice que, sobre t+1,
los valores ms alejados de la altura de A son menos probables.

4.15
Matemticamente, se puede escribir el proceso de Wiener como:
si y t es W(t) entonces y t= t
Las siguientes caractersticas de este proceso son importantes:

Cuando t0, el proceso es dy= dt .

Este proceso continuo no tiene derivada porque dy / dt= dt . 10

Ntese que E [dy ]=0 y V [ dy ]=dt .

Sea z1(t) = W(t). Entonces esta transformacin del proceso original es tambin un
movimiento Browniano, slo que sus incrementos son i.i.d. N(0, ) en vez de N(0,1).

De esta manera hemos pasado de procesos discretos a continuos. Los movimientos


Brownianos son procesos de Wiener, pues stos se definen como un proceso estocstico Gaussiano
en tiempo continuo {Wt} que satisface las siguientes propiedades (1) W tW s N [ , 2 ts ] y
(2) W tW s y W u W v son variables aleatorias independientes.11

4.05 FUNCIONAL DEL TEOREMA DEL LMITE CENTRAL


Para identificar las distribuciones lmites de procesos estocasticos que son funciones
acumuladas de perturbaciones de orden potencialmente infinito necesitamos una generalizacin del
teorema de lmite central que se aplique a funciones y no a variables aleatorias. Recordemos la
versin ms simple del Teorema del Lmite Central (TLC): Si t es i.i.d. con media 0 y varianza , la
media muestral satisface:
2
T T N 0,

(4.39)

Es importante notar que el TLC se refiere a la distribucin de la media muestral que, en el


caso de procesos estacionarios es constante. En el caso de procesos no estacionarios, la media va
cambiando en el tiempo, por lo que se enfrenta el problema de descubrir la distribucin lmite de
una secuencia de medias, no de una nica media. La solucin consiste en mapear las medias de su
intervalo creciente [0,T] a un intervalo fijo [0,1].

10 Si este tipo de funciones lo deja estupefacto, usted no est solo. El famoso matemtico frances Charles Hermite
seal en 1893 I recoil in fear and loathing from that deplorable evil: continuous functions with no derivatives.
11 Otros procesos de Wiener son el proceso de Ito dx =a x ,t dt b x , t dw donde los parmetros son funcin de la
posicin de la serie y el Wiener geomtrico x / x =a t b W para tasas de crecimiento.

4.16
Supongamos un estimador curioso: calcule la media muestral con la mitad de los datos, bote el resto.
El estimador
T / 2 tambin cumple el TLC. Y, de hecho, es independiente del mismo tipo de
estimador hecho con la otra mitad de los datos.
Podemos generalizar esto para la fraccin r de los datos, con r [0,1] para definir una
funcin tipo pedao (step), es decir, la media calculada con una fraccin r de la muestra de T datos:
1
X T r =
T

Tr

(4.40)

t =1

Ntese que la funcin XT(r) es una funcin en r, que mapea la informacin en el intervalo
[0,T] en la recta [0,1]de la siguiente forma:

[ ]
0

1
T
X T r =
1 2
T

12 ...T
T

1
T
1
2
r
T
T
2
3
r
T
T

0r

(4.41)

r =1

entonces, an cuando la muestra va creciendo de tamao (T), XT continua definida en el


intervalo [0,1]. As
Tr

T X T r =

1
Tr
t =

T t =1
T

Tr

Tr t =1 t

(4.42)

aplicando el TLC al parntesis de la ecuacin (4.42) se obtiene que ste converge a N(0,), en tanto
que la fraccin converge a r . 12As:
2
T X T r N 0, r

(4.43)

y, por lo tanto,

X T r
N 0, r

(4.44)

es decir, converge a un proceso Browniano.13 Este resultado es llamado teorema del funcional del
lmite central. Consideremos ahora, la diferencia entre las ecuaciones (4.39) y (4.44). La ecuacin
12 Note que la fraccin es una razn de desviaciones estndares.
13 Este resultado utiliza el Teorema de Donsker (1951).

4.17
(4.39) es para variables aleatorias, en tanto que la ecuacin (4.44) es para funciones de variables
aleatorias. Ntese que la ecuacin (4.39) es un caso particular de la ecuacin (4.44) cuando r =1.
Este teorema del funcional del lmite central se puede usar para obtener convergencia en
probabilidad de funciones, etc. En particular, vamos a usar estos resultados para obtener las
distribuciones de los distintos tests de races unitarias.
Consideremos de nuevo el paseo aleatorio
y t =t t 1t 2 .... . Definimos la funcin estocstica:

0
y 1 /T
X T r = y 2 /T

y 1 /T

0r 1/T
1/T r 2/T
2/T r 3/T

r =1

y t = y t 1t .

Si

y0=0,

entonces

(4.45)

la integral de esta funcin es


1

X T r dr = T 12 T 22 ... TT2

(4.46)

Prueba: La funcin peldao que definimos en la ecuacin (4.45) seala que los incrementos en r
son del tipo y i / T y ocurren a distancia 1/T. Entonces,

i /T

X T r dr =
0

i=1 i1 /T

X T r dr ,

pero en el intervalo [(i-1)/T,i/T] la funcin XT(r) no depende de r. As,


i /T
T
T
y i i /T
X T r dr = T dr . Evaluamos la integral que, trivialmente, es 1/T. Por
i =1 i1/ T
i =1
i1/ T
1
T
y
lo tanto, X T r dr = 1 i .
T i =1 T
0
Multiplicando por
1

T a cada lado la ecuacin (4.46) obtenemos


3 T

T X T r dr =T 2 yt 1

(4.47)

t =1

pero, ya hemos visto en la ecuacin (4.44) que el lado izquierdo converge a W r dr . Por ello,
T

3 T
2

t=1

y t 1 W r dr
0

Cul es la intuicin? Escribamos primero la ecuacin anterior como:

(4.48)

4.18
T

3 T
2

t=1

y t 1=T
3
2

=T
=T

3
2

[ 112 123 ...]


(4.49)

[ 1 T 12 T 23 T 3... ]

3 T
2

1 T
2

3 T
2

T t t =T t T t t
t =1

t =1

t=1

Usemos ahora un resultado que ya vimos en la ecuacin (4.29):

[ ]
T

T t
t =1
T

3/ 2

t t

[ ] [

0 , 2 1 1/2
0
1/2 1/3

]
1

(4.50)

t =1

entonces, lo que la ecuacin (4.50) dice es que

3/2

t =1

y t1 es asintticamente Gaussiano con


1

media cero y varianza, [12]= /3 . Naturalmente, W r dr en la ecuacin (4.48)


2

describe una variable aleatoria paseo aleatorio con distribucin N(0,/3).


En resumen, si

y t es un paseo aleatorio sin deriva, la media muestral diverge, pero

T 3/2 y t converge a una variable aleatoria que se describe por la integral de un proceso
t =1

Browniano con varianza . Hay un nmero grande de resultados adicionales que se derivan de este
tipo de anlisis para funciones de y t que usted puede estudiar por su cuenta. Un resumen prctico
de los principales resultados se encuentra en el Cuadro 4.1.
Sobre la base de los resultados obtenidos en el Cuadro 4.1 vamos a derivar la distribucin del
test de races unitarias para distintos tipos de procesos estocsticos. Es decir, vamos a estudiar qu le
sucede al test t hecho sobre los estimadores de los parmetros de una regresin del tipo
y t = t y t 1t cuando el verdadero proceso que genera y t tiene o no tiene una raz
unitaria.
Para derivar los resultados de convergencia del Cuadro 4.1 se utiliza el Teorema del Mapeo
de Continuos (cointinuous mapping theorem)14, que seala que si f(.) es un funcional continuo en el
intervalo [0,1], entonces:
f X T r f W r

14 Para una demostracin ver P. Billingsley (1968): Probability and Measure, John Wiley and Sons.

4.19
En este sentido, el mapeo toma la siguiente forma:
=>

=> r

t
t

=> dW(r)

yt

=> W(r)

Cuadro 4.1
Convergencia en procesos estocsticos
Modelo: y t = y t 1 t
Variable
T

Converge a

1 T
2

W 1

t =1

5/ 2

tyt 1
t=1

t y t 1

rW r dr
0

[ W 1 1 ]
2

t =1

t=1

T 2 y 2t1 2 [W r ]2 dr
T

3 T
2

y t 1
t =1

1
2

[W r ] dr
0

3 T
2

t t
t =1

W 1 W r dr
0

T 3 ty 2t 1 r [W r ] 2 dr
t =1

1
T 1 t 1
t =1

4.20

Caso 1. Modelo sin constante ni tendencia determinstica y el verdadero


proceso es un paseo aleatorio.
Supongamos que hacemos un AR(1), y t = y t 1t , y estimamos por mnimos
cuadrados ordinarios. Qu pasa con el estimador mnimos cuadrados ordinarios de si el
verdadero es 1?
T

y t 1 yt

T = t =1T

(4.51)
2
t 1

t =1

y se desva del verdadero valor


1
y
T t1 t
T T 1=
1
y 2t1
2
T

(4.52)

El numerador de la ecuacin (4.52) converge a 1/2 2[ W 121 ] en tanto que el


1

denominador converge a [W r ]2 dr . Este ltimo es un valor dado que no interviene de


2

manera importante en la distribucin del estimador . La distribucin de T T 1 , y por ende la


distribucin de , depende de W(1). Como W(1) es N(0,1), entonces W(1) es (1). Esto implica
dos resultados interesantes:
1. La probabilidad de obtener un valor menor que 1 en una (1) es de 68%. Es decir, en un
68% de muestras generadas por un paseo aleatorio, el estimado por mnimos cuadrados
ordinarios ser menor que 1 an si el verdadero proceso tiene =1.
2. La distribucin no es simtrica, sino que est sesgada hacia la izquierda.
Por ello, el test t sobre el estimador de no es adecuado y se debe usar T T 1 .
Adems, hay que usar valores crticos derivados de tablas especiales (obtenidas por Monte Carlo o
exactas por simulacin).
El estimador de mnimos cuadrados ordinarios de es, sin embargo, superconsistente. 15
Otro test comn usa el estadgrafo t.

15 Ver demostracin en Hamilton, captulo 15.

4.21
T

1
t T= T
=

T

i=1

y t 1 t

(4.53)

1/ 2

t1

2
t =1

2 1/ 2
T

Cuya distribucin lmite cuando T es:


tT

1/2[ W 12 1 ]

1/ 2

[W r ] dr
2

(4.54)

La Figura 4.3 muestra empricamente cmo se distribuye el estimador de mnimos cuadrados


y cmo se distorsiona el test t.
Figura 4.3
Distribucin del estimador y test t
cuando se estima un AR(1) y el modelo es paseo aleatorio
Tamao de Muestra = 1000, Nmero de Replicaciones = 1000

4.22

Caso 2. Modelo con constante pero sin tendencia determinstica y el


verdadero proceso es un paseo aleatorio.
y t = y t1 t , y estimamos por mnimos

Supongamos que hacemos un AR(1),


cuadrados ordinarios. Queremos describir,

[ ][

T = T =
T

T
y t 1

y t 1
y 2t 1

][

yt
yt 1 y t

(4.55)

La hiptesis nula es Ho: =0, =1, entonces aplicamos (4.25) y obtenemos

[ ][
T
=
T 1

T
yt 1

y t 1
y t21

][

t
y t1 t

(4.56)

Se puede demostrar que:


1

1/2[ W 1 1 ] W 1 W r dr
2

T T 1

[W r ] dr W r dr
2

(4.57)

es decir, el estimador mnimos cuadrados ordinarios no tiene como distribucin lmite un proceso
Gaussiano. Ms an, tampoco se distribuye como el caso 1. Por ello, no se puede usar los valores
crticos de la tabla anterior, sino una nueva tabla. La distribucin del test es an ms skewed hacia la
izquierda.
Dickey y Fuller (1979) proponen un test tipo t como ya vimos. Este test se distribuye
asintticamente como:
1

T T 1

T
T

1/ 2[ W 12 1 ] W 1 W r dr
0

[
1

2 1 /2

2dr

[W r ]

W r dr

(4.58)

4.23
Figura 4.4
Distribucin del estimador y test t cuando se estima
un AR(1) con constante y el verdadero modelo es paseo aleatorio
Tamao de Muestra = 1000, Nmero de Replicaciones = 1000

Caso 3.
Modelo con constante pero sin tendencia determinstica y el
verdadero proceso es un paseo aleatorio con tendencia estocstica.
Supongamos que el verdadero proceso es y t = y t 1t , y estimamos en y
y t = y t 1 t por mnimos cuadrados ordinarios cuando no es cero. Demostraremos que la
distribucin de los estimadores de y cambia bastante con respecto a los casos anteriores
El proceso puede ser descrito como
y t =t y 0t t 1 t 2 ...
= t y 0t

(4.59)

con = .
Consideremos

t =1

t =1

y t 1 = [ y 0t1t 1 ] el primer trmino es Ty0 y converge si se

divide por T; el segundo converge a /2 si se divide por T, en tanto que el tercero converge a
W r dr si se divide por T3/2.

4.24
Entonces, el segundo trmino domina asintticamente a los otros dos. As:
T
T
T

1
1
1
1
y = y 0 2 t 1 2 t 1 0 0
2 t 1
T
2
T t =1
T t =1
T t =1

(4.60)

Estudiemos ahora

y 2t 1
t =1

y 2t 1= y 20 2 t 12 2t 1
2 y 0 t 1 2 y 0 t1 2t 1 t 1

(4.61)

el orden de probabilidad es O(T), O(T), O(T), O(T), O(T3/2) y O(T5/2) respectivamente. Por ello,
T

1
y2
3 t 1
3
T t =1

(4.62)

Con el mismo raciocinio se deriva que


T

1
1
y 3/ 2 t 1t
3 /2 t 1 t
T t =1
T t=1

(4.63)

es decir

[ ][

ahora basta con definir T =

][

T
O T O T 2
=
T 1
O T 2 O T 3

(4.64)

T 1/2 0
para obtener que:
0 T 3 /2

] [ ] [

T 1/ 2 T
N
T 3/ 2 T 1

O T 1 /2
O T 3/2

0 , 2 1 /2
0
/ 2 /3

(4.65)

es decir, obtuvimos lo mismo que en el caso del modelo con tendencia determinstica. Este es un
resultado notable. Por lo tanto se aplican los tests t y F directamente.

4.25
Figura 4.5
Distribucin del estimador y test t cuando se estima
un AR(1) con constante y el verdadero modelo es paseo aleatorio con tendencia aleatoria
Tamao de Muestra = 1000, Nmero de Replicaciones = 1000

Caso 4. Modelo con constante y tendencia determinstica y el verdadero


proceso es un paseo aleatorio con tendencia estocstica.
Se puede demostrar que el proceso y t= y t1 tt se puede escribir como
y t =1[ y t 1 t 1] t t
= * * t 1 * t t

(4.66)

Bajo la hiptesis nula t = y 012... . Por lo tanto, el estimador mnimos cuadrados


ordinarios es:

[ ][
*T
T* 1 =

T

T
t 1
t

t 1 t
2t 1 t 1 t
t t 1 t 2

][ ]
1

t
t1 t
t t

ntese que redefinimos la hiptesis nula del test. Entonces

(4.67)

4.26

T 1/2 0
T = 0 T
0
0

0
0
T 3 /2

(4.68)

Se obtiene la distribucin asinttica de

[ ] [ ][
T 1 /2 T*
T * 1

1
1 0 0
0 0 W r dr
T
0 0 1
1/ 2
T 3/ 2 *T 0

1/2
W r dr
W r 2dr rW r dr
1/3
rW r dr

][
1

W 1
2
1/2W 1 1
W 1 W r dr

(4.69)
La distribucin de T T 1 no depende de o , en particular no depende de que =0 .
La distribucin de T 1 / es ms ancha que todas las anteriores.
T

Figura 4.5
Distribucin del estimador y test t cuando se estima
un AR(1) con tendencia determinstica
y el verdadero modelo es paseo aleatorio con tendencia aleatoria
Tamao de Muestra = 1000, Nmero de Replicaciones = 1000

4.27

4.06 TESTS EMPRICOS ESTNDARES DE RACES UNITARIAS


Existe una enorme variedad de tests de races unitarias, los que difieren en enfoque, poder y
robustez frente a desvos en las condiciones supuestas para derivarlos. En esta seccin nos
ocupamos de los tests paramtricos de races unitarias, en tanto que en una seccin posterior
estudiaremos tests no paramtricos.
Para el modelo y t= y t1t la hiptesis nula de una raz unitaria sera H0: =1. Un

test de Wald de dicha hiptesis exigira computar 1/


. Resulta conveniente modificar
ligeramente la hiptesis nula de modo que se pueda leer el resultado del test directamente de la
regresin (todos los programas economtricos entregan la razn entre el parmetro estimado y su
desviacin estndar). Para ello, restamos y t1 de ambos lados del modelo anterior para obtener:
y t1=1 y t 1t . Ahora la hiptesis nula es simplemente H0: =0, donde =( -1).
La hiptesis alternativa del test es que el modelo es estacionario. Como hay varias alternativa
de modelos estacionarios, habrn varias especificaciones de tests de races unitarias que debemos
considerar. En principio, cuando la variable no tiene una raz unitaria, sta podra oscilar alrededor
de cero, alrededor de una constante, o alrededor de una tendencia determinstica lineal. Cada una de
estos casos es una distinta hiptesis alternativa.

Familia de Tests de Dickey-Fuller16


Podemos anidar ambas hiptesis (nula y alternativa) en un solo modelo, como se describe en
la ecuacin (4.71). Habr varias hiptesis alternativas, dependiendo del tipo de proceso que
caracteriza a la serie cuando sta es estacionaria. La especificacin (a) corresponde al caso en que la
hiptesis alternativa es que el modelo es autoregresivo ser menor que 1 con media cero y sin
tendencia determinstica. En la especificacin (b) la hiptesis alternativa corresponde a un proceso
con media distinta de cero pero sin tendencia determinstica. La ltima especificacin es el modelo
ms general, en el sentido que permite que tanto la media como la tendencia determinstica sea
libres.
a y t= y t 1t
b y t = y t 1 t
c yt =t y t1t

(4.70)

Como es la sana prctica en econometra, el testeo de races unitarias debe hacerse de


general a particular. Es decir, se empieza por con el modelo (c) y se verifica que el estimador del
parmetro sea estadsticamente distinto de cero. Si no se rechaza dicha hiptesis nula, se estima el
16 Dickey, D.A. and W.A. Fuller (1979) Distribution of Estimators for Autoregressive Time Series with a Unit Root.
Journal of the American Statistical Association 74: 427-431.

4.28
modelo (b), verificndose que el parmetro el estimador del sea cero. Si no se rechaza dicha
hiptesis nula, se estima la especificacin (a).
Ntese que de acuerdo a lo descrito en las secciones anteriores, la distribucin de los
estimadores de y es estndar (asintticamente normal), en tanto que la del estimador de es no
estndar. Adems, al cambiar de hiptesis alternativa, cambia la forma de la distribucin de este
ltimo debido a la presencia de parmetros incidentales. As, habr que construir tablas para cada
tipo de test y nivel de significancia.
La subrutina del Apndice B permite computar de manera sencilla los valores crticos,
tomando en consideracin los tres tipos de modelos y el tamao de muestra. Los resultados estn en
el Cuadro 4.2. Como puede verse, el tamao del test depende del nmero de datos de la muestra y
de la presencia de parmetros incidentales (nuisance parameters) los que afectan la ubicacin de la
distribucin Dickey-Fuller y el ancho de los intervalos de confianza del test sobre el parmetro de
inters.
Cuadro 4.2
Valores crticos de la distribucin Dickey Fuller
Basado en 100.000 replicaciones

Modelo (a)

Modelo (b)

Modelo ( c)

Tamao Muestra

Valor crtico al 95%

Valor crtico al 90%

50

-1,969

-1,621

100

-1,950

-1,616

1000

-1,953

-1,621

50

-2,936

-2,602

100

-2,892

-2,581

1000

-2,897

-2,589

50

-3,510

-3,187

100

-3,460

-3,155

1000

-3,452

-3,149

Familia de Tests Dickey-Fuller Aumentado


Este test es exactamente igual al anterior pero controla por la posible autocorrelacin de los
residuos que en el caso anterior se supone implcitamente son ruido blanco. Como vimos en el
Captulo 3, la inclusin de rezagos de la variable endgena permite controlar la correlacin serial.

4.29
k

a y t= yt 1t p y t p
p=1

b y t = y t 1t p y t p

(4.71)

p=1

c y t= t y t1t p y t p
p=1

Nuevamente, la distribucin de los estimadores de , y se distribuyen asintticamente


normales, en tanto que el estimador de se distribuye de manera no estndar. Del mismo modo, al
cambiar de hiptesis alternativa, cambia la forma de la distribucin de este ltimo debido a la
presencia de parmetros incidentales. McKinnon (1993), entre otros, provee tablas para cada tipo de
test y nivel de significancia.

Familia de Tests Phillips-Perron17


Phillips y Perron (1988) utilizan exactamente el material de convergencia que vimos
anteriormente para desarrollar un test paramtrico de races unitarias para el caso que el residuo
sigue cualquier tipo de correlacin serial (es decir, no necesariamente AR(p)).

Primero, si la primera diferencia de la serie es estacionaria, t= Lt = j t j , y t es


j=0

i.i.d. (0,), entonces la serie puede ser descrita como:


y t=1...t y 0
= 11...t t 0 y 0

(4.72)

es decir, la combinacin de un paseo aleatorio (1)(1 ... t), condiciones iniciales 0 y y0 y un proceso
estocstico, t.
Esta decomposicin (desarrollada por Beveridge y Nelson) se usa para obtener el equivalente
de las ecuaciones (4.50), pero en el caso general de correlacin serial.
Para hacer el test,
1. se estima un modelo AR(1) tpico ( y t= y t1t ) y se calculan los estimadores de y
y el error estndar de la regresin, s.
2. se estima la funcin de autocorrelacin de los residuos muestrales, la que se usa para
construir el estimador de Newey-West de la persistencia de la serie =(1) y de la varianza
de los residuos, 0.
3. se transforman los estimadores obtenidos en 1. para obtener tests que tienen la distribucin
del caso (2). Las transformaciones son
17 Phillips, P.C.B. and P. Perron (1988). "Testing for a Unit Root in Time Series Regression," Biometrika, 75: 335-346.

4.30
[0 2]t T 1/2 20/T /s T

(4.73)

T T 1 1/2T 2 2T /s T 20

(4.74)

Extensiones del Test de Dickey-Fuller con mayor poder


Elliott et al. (1996) sugiere usar una variacin del mnimos cuadrados generalizados que
consiste en pre-filtrar la variable de inters, es decir usa los residuos de la regresin de
[ y 1, y 2 y 1 ,... , y T y T 1 ] en [z 1, z 2 z 1 ,... ,z T z T 1 ] , donde zt puede incluir una
constante o una constante y una tendencia determinstica. Note que la variable es cuasi-diferenciada
usando =1c T 1 donde c ,0 es un parmetro que se elige considerando el poder de la
envolvente (tpicamente -7 si slo se incluye una constante en zt y -13.5 si el test incluye constante y
tendencia). Se hace un test de Dickey-Fuller como el que se describe en la ecuacin (4.70a) sobre la
variable cuasi-diferenciada.
Elliott (1999) seala que en el test anterior se supone que la primera observacin es fija,
siendo preferible suponer que hay estacionariedad en covarianzas. Por ello, si el modelo es de la
forma y t =z t y t 1t , las desviaciones con respecto a la tendencia son una variable aleatoria
con media cero y varianza no-condicional 2 12 1 . As, el test se har usando los residuos de la
regresin de [12 1/ 2 y 1, y 2 y 1 ,... , y T y T 1 ] en [12 1/ 2 z 1, z 2 z 1 , ... ,z T z T 1 ] .18

Familia de Tests de Perron para quiebre estructural


Perron (1989) hace la observacin que la hiptesis nula de los tests anteriores supone que el
proceso determinstico no cambia. Pero puede haber quiebres estructurales en la media de la serie
y/o en su tendencia, que pueden engaar al test de races unitarias, sesgando los resultados hacia la
hiptesis nula de no estacionariedad.
Un test general considera la hiptesis alternativa con variables mudas (dummies) para capturar
los posibles quiebres. El test con ambas hiptesis anidadas es:
k

y t=1 D t1 D t y t1 t p t p
1
t

2
t

(4.75)

p=1

la distribucin de los estimadores, en este caso, depende adems de la ubicacin del quiebre en la
muestra. Por ello, hay tablas Perron para encontrar los valores crticos adecuados.

18 Otras extensiones del tipo DF-GLS son el test ERS (Elliott, Rothenberg and Stock (1996): "Efficient Tests for an
Autoregressive Unit Root," Econometrica 64, 813-836) y el test Ng-Perron (Ng and Perron (2001): "Lag Length
Selection and the Construction of Unit Root Tests with Good Size and Power," Econometrica, 69(6), 1519-1554.)

4.31

Endogeneizando la ubicacin del quiebre


Naturalmente, el test de Perron para quiebre estructural requiere conocer la fecha en que
ocurre el quiebre. Ello no es comn. Banerjee et al. (1992) y Zivot y Andrews (1992) proponen tests
en que, aparte de determinar la presencia de races unitarias, se determina la existencia y fecha de
quiebres estructurales.19
La lgica de estos tests es bastante simple y consiste en hacer un barrido de la muestra con
tests de races unitarias que van cambiando la ubicacin de los quiebres. Como este procedimiento
es efectivamente data mining, el test no tiene la distribucin de Perron sino una derivada ad-hoc,
que precisamente reconoce el problema de mining.

Determinacin del nmero de rezagos


La determinacin del nmero de rezagos (k) es menos inocente de lo que parece. En
principio bastara con hacer que el residuo de la regresin que se hace para el test de races unitarias
fuese ruido blanco. El problema radica en que el nmero de rezagos incluidos en la regresin afecta
el poder del test. Alternativamente, el tamao del test no es 5% si el nmero de rezagos es el
incorrecto.
Una alternativa es fijar ex-ante el nmero de rezagos. Ng y Perron (1995) demuestran que
para residuos que siguen un AR(p) el test tiene el tamao correcto si el nmero de rezagos incluidos
es mayor que p. Desafortunadamente, para residuos que siguen un MA(q) no hay una regla til.
Schwert (1989) propone usar una regla dependiente del tamao de muestra, del tipo
k=Trunc c T /1001/d y sugiere usar c = 12 y d = 4. El problema de este tipo de regla es que no
hay una razn clara para esperar que esta regla sea ptima para todo AR(p) o MA(q).
Es comn fijar k usando criterios informacionales como Akaike o Schwartz.
Alternativamente se puede partir de un nmero mximo de rezagos kmax y luego ir reduciendo el
orden del rezago si el marginal no es estadsticamente significativo. De esta manera se procede de
general a particular.

4.07 TESTS CON HIPTESIS NULA DE ESTACIONARIEDAD


Debido a los problemas de poder y tamao de los test de races unitarias que tienen como
hiptesis nula no estacionariedad, ha habido inters en desarrollar test con la hiptesis nula opuesta,
es decir, estacionariedad. Este tipo de test es menos comn pero an as es util usarlo con el objetivo
de comprobar las conclusiones del primer tipo de test.
19 Banerjee, A., R. Lumsdaine and J. Stock (1992) Recursive and sequential tests of the unit-root and trend-break
hypotheses: theory and international evidence. Journal of Business & Economic Statistics 10, 271-287. Zivot, E. and D.
Andrews (1992) "Further Evidence on the Great Crash, the Oil Price Shock and the Unit Root Hypothesis", with
Donald W.K. Andrews, Journal of Business & Economic Statistics, 10(3): 251-70.

4.32
Uno de los tests ms populares es el de Kwiatkosvky et al. (1992)20, usualmente llamado
KPSS. Considere el siguiente modelo:
y t =t t t

(4.76)

2
donde es un paseo aleatorio del tipo t =t 1t con t N 0, . La hiptesis nula de
2
estacionariedad corresponde a H 0 : =0 que equivale a decir que es constante. Este modelo
es una versin del modelo de parmetros cambiantes de Nabeya y Tanaka (1988)21

y t =t x t z t t
t =t 1 t

(4.77)
T

Nabeya y Tanaka proponen el test

LM = S 2t / 2e , donde e son los residuos de una


t =1

regresin de y t en una constante y tendencia lineal22, 2e es la varianza residual de dicha regresin,


T

y S t = e t . Este estadgrafo fue derivado suponiendo que las innovaciones son i.i.d. KPSS extiende
t =1

el test para el caso en que las innovaciones no son i.i.d., lo que requier usar un estimador de largo
plazo de la varianza residual 2 =limT T 1 E S T2 . Un estimador consistente de S T2 es:
T

STl =T

=1

t =1

e 2T w l
t =1

2
t

e t e t

(4.78)

23
donde w l es una funcin de ponderacin que, en el caso de KPSS, equivale a w l =1
.
l 1

4.08 EQUIVALENCIA OBSERVACIONAL, PODER Y TESTS DE RACES UNITARIAS


Un problema comn a cualquier test de raz unitaria es el bajo poder derivado de la
equivalencia observacional. Supongamos que el verdadero modelo es
y t= yt 1t

(4.79)

pero estimamos en una muestra finita de tamao T un proceso AR(1).


y t= yt 1t

(4.80)

20 Kwiatkowski, D., P. C. B. Phillips, P. Schmidt y Y. Shin (1992): "Testing the Null Hypothesis of Stationary against
the Alternative of a Unit Root," Journal of Econometrics, 54, 159-178.
21 Nabeya, E. y K. Tanaka (1988): Asymptotic theory of a test for the constancy of regression coefficients against the
random walk hypothesys, Annals of Statistics, 16:218-235.
22 Para testear la hiptesis nula de estacionariedad alrededor de una constante, se omite la tendencia lineal.
23 Esta es una ventana de Bartlett similar a la de Newey-West.

4.33
Consideremos ahora la prediccin y ECM de ambos modelos. Para la ecuacin (4.79)
y t s | t = y t
E [ y t s y t s | t ]2 =s 2

(4.81)

en tanto que para la ecuacin (4.80)


y t s | s = s y t
E [ y t s y t s | t ]2 =124... 2

(4.82)

As, para un suficientemente grande, los dos procesos se ven casi iguales en una muestra
finita. A esto se le llama equivalencia observacional.
Igualmente, si el proceso verdadero es estacionario y t=t y estimamos el modelo en
primeras diferencias
1L y t =1t

(4.83)

con 0= y 0=0 . Las proyecciones s periodos adelante y ECM para el verdadero modelo son:
y ts s=0
E [ y t s y t st ]2= 2

(4.84)

en tanto que para el modelo de la ecuacin (4.83) se obtiene


y t s | s=1t t 1...1
E [ y t s y t s | t ]2=1 s112 2

(4.85)

de nuevo, si el es cercano a -1, los procesos se parecen bastante en una muestra finita.
La razn de la equivalencia observacional es que en una muestra finita los procesos que
tienen mucha memoria suelen asemejarse a aquellos que tienen races unitarias porque no hay
suficiente informacin para determinar si los innovaciones son transitorios o permanentes.
Qu efecto tiene esto sobre los tests de races unitarias?

Prdida de poder cuando la H1 es cercana a Ho.


Bsqueda de tests donde H0 sea estacionariedad (ver Kwiatkosvky et al., 1992)
Bsqueda de tests no paramtricos.

4.34

4.09 TESTS NO PARAMTRICOS DE RACES UNITARIAS


Uno de los tests no paramtricos de persistencia de una serie de tiempo ms comunes es el
de Cochrane (1988). El argumento es bastante simple y se basa en evaluar qu tan persistentes son
las innovaciones del proceso estocstico. Si ellas son completamente persistentes, entonces existe
una raz unitaria. Si ellas desaparecen en el tiempo, el proceso es estacionario en tendencia.
Medimos la persistencia de las innovaciones usando el hecho que toda variable cuya primera
diferencia es un proceso estacionario lineal, puede ser representada por una combinacin de
procesos estacionarios (ct) y camino aleatorio (zt).
y t =z t c t
z t =z t 1 a 1t

(4.86)

a 1= a j
j=0

c t =a L t a *k =

a j

j=k 1

donde t es ruido blanco, a(1) es la parte del innovaciones que no se disipa en el largo plazo y es el
deriva de la variable y t .
Cualquiera sea la forma en que se separen componentes transitorios y permanentes, la
varianza de este ltimo es la misma y corresponde a:
2

2 z = a j

(4.87)

As, se testea usando la razn entre la varianza de z y aquella de la primera diferencia de y t :


V=

2z

(4.88)

2
Y t

Si y t es TS, t no hay efecto permanente y z y V tendern a cero.

Si y t es RW, t hay efectos permanentes que z Y y V=1.

En trminos prcticos, se estima una secuencia de V, variando el largo del intervalo en el


numerador:
2

V k=

1 y y
k 2y y
t

tk

t 1

(4.89)

Se puede demostrar que V es equivalente a la suma de las autocorrelaciones de la serie ms


uno. En muestras finitas se usa el estimador de la autocorrelacin de la primera diferencia de la serie:

4.35

m1

m j
Y
m
j=1
T cov Y t , Y t j
Y =
T j
var Y t
V m=12

(4.90)

Los trminos

m j
Tj
y
son correcciones por tamao de muestra.
m
T

Prueba:

Sea el modelo 1L y t =' A L t =' j t j . Usando la siguiente identidad


k

1L 1L =1L L ...L
yt :
k1

y t y t k =k '
j=0

l =0

j =k

l t j

k1

j=0

se puede obtener la diferencia de orden k de


j

l = jk1

l t j .
k 1

La

varianza

es

Expresamos

=k var y t y tk =k [ l
2
k

la

varianza

k1

como

una

j =0 l =0

ecuacin

j =k l = j k1

en

l ] 2 .

diferencias

2
2
2
2
k k k1 k 1=[ j 2 j j l ] . Sea = , se deduce que

k1

12 j =

2
k

k k 1
2

j =1

Por lo tanto,

j =0

2
k1

l =1

2
l

j =0

2
j

donde j es la autocorrelacin de orden j de 1L y t

2k

k1

=k 1 [112 112 12 2 ...]=12


2

j=1

k j
j .
k

4.10 TESTS DE RACES UNITARIAS ESTACIONALES


Es comn encontrar en variables econmicas el fenmeno de estacionalidad, es decir, el
movimiento intra-anual sistemtico aunque no necesariamente regular de la serie de tiempo que
representa una variable econmica24. Existe un largo, y an inconcluso, debate sobre la conveniencia
de modelar la economa usando variables originales o desestacionalizadas. Hansen y Sargent (1993) 25
defienden la idea que agentes racionales toman decisiones en base a datos sin desestacionalizar y que
remover la estacionalidad implica, en el mejor de los casos, eliminar informacin que podra ser til
para estimar los parmetros de un modelo. Sims (1993)26, por el contrario, apoya la idea opuesta;
resulta preferible usar datos desestacionalizados por cuanto en el proceso de ajustar un modelo a los
24 Hylleberg, S. (1992). Modelling Seasonality. Oxford: Oxford University Press.
25 Hansen, L.P. and T. Sargent (1993). Seasonality and approximation errors in rational expectations models, Journal of
Econometrics 55(1-2): 21-56.
26 Sims, C.A. (1993). Rational expectations modeling with seasonally adjusted data, Journal of Econometrics 55(1-2): 9-20.

4.36
datos originales, se corre el riesgo de darle demasiada importancia a capturar efectos estacionales
que en s son secundarios en desmedro de una mejor parametrizacin de las caractersticas
principales del modelo. A pesar de lo importante que resulta este debate, la mayora de los
investigadores prefiere usar datos desestacionalizados. La justificacin sera que, si bien estos
movimientos son anticipables, tpicamente stos no estn directamente relacionados al objetivo del
estudio y, por lo tanto, no resulta necesario modelarlos explcitamente.
Entre los mtodos ms comunes para remover la estacionalidad estn el uso de variables
mudas estacionales y el mtodo de promedios mviles, que incluye desde la variacin en xperiodos hasta el ARIMA X-11. Esta ltima es la metodologa ms popular tanto porque su nivel
de desarrollo analtico es superior, como porque viene implementada como una opcin sencilla de
usar en muchos programas economtricos.
Este tipo de filtro asume que la estacionalidad es estocstica pero estacionaria. No obstante,
si los componentes estacionales de una variable son estocsticos, es posible que ellos tengan una raz
unitaria no slo en su comportamiento de largo plazo, sino que tambin en los efectos estacionales.
No reconocer la existencia races unitarias estacionales puede originar problemas de correlaciones
espreas y parametrizaciones inestables.
Ms an, cuando las series macroeconmicas son estacionalmente integradas (es decir, en el
caso que los shocks estacionales tienen componentes permanentes), desestacionalizarlas con los
mtodos clsicos resulta inadecuado. La remocin de estacionalidad, adems, afecta el poder de los
tests de races unitarias y de cointegracin sobre cuyos resultados los econometristas se basan para
determinar la forma funcional de los modelos y juzgar la calidad de las estimaciones.
Si la estacionalidad es determinstica, removerla con la ayuda de variables estacionales no
tiene efecto alguno sobre el desempeo o resultado de los tests de raz unitaria. Sin embargo, en
presencia de efectos estacionales estocsticos, los filtros tradicionales pueden afectar de manera
significativa el poder de los tests de raz unitaria. Ghysels (1990)27 muestra que la remocin de
estacionalidad con el mtodo X-11 o una variacin en X perodos introduce persistencia excesiva
en la serie, lo cual reduce el poder de los tests para rechazar la hiptesis de no estacionariedad.
Olekalns (1994) extiende este resultado a los casos en que usan dummies o filtros band-pass para
remover la estacionalidad.
Al igual que en el caso que existen races unitarias en el componente secular de una variable,
la presencia de races unitarias en el componente estacional es capaz de producir correlacin esprea
en regresiones que utilizan dichas variables. Abeysinghe (1991) realiza un anlisis de Monte Carlo
estudiando el efecto en regresiones de mnimos cuadrados que incluyen variables que por
construccin estn no correlacionadas pero cuyos componentes estacionales son no estacionarios.
Utilizando 500 replicaciones encuentra que se rechaz la hiptesis nula de no-correlacin entre las
variables en ms del 50% de los casos pese a que se control el test con variables mudas
estacionales.

27 Ghysels, E. (1990). Unit-root tests and the statistical pitfalls of seasonal adjustment: the case of U.S. postwar real
gross national product, Journal of Business and Economic Statistics, 8, 145-152

4.37
Este tipo de observaciones son las que han llevado, desde mediados de los aos 1980, al
desarrollo de un gran nmero de tests de races unitarias en el componente estacional. Tests
paramtricos incluyen los de Dickey et al. (1984), Hylleberg, Engle, Granger y Yoo (1990) y
Johansen y Schaumburg (1999). Geweke y Porter-Hudak (1983) proponen tests no-paramtricos,
mientras que Franses et al. (1997) proponen una metodologa Bayesiana para testear por races
unitarias estacionales simultneamente con cambio de medias estacionales, lo que incrementa el
poder de los tests basados en la hiptesis nula de no estacionariedad.28
Para testear la existencia de races unitarias estacionales, usualmente se emplea la extensin
del test de Dickey-Fuller desarrollada para el caso de datos trimestrales por Hylleberg et al. (1990) y
llamado popularmente test HEGY. Existe una versin para datos mensuales desarrollada por
Beaulieu y Miron (1993).29 Si bien existen mtodos alternativos (como el de Canova y Hansen,
199530), el test HEGY es preferido porque procede de general a especfico, tiende a ser ms robusto
en presencia de races unitarias no estacionales en las variables, y tiene mayor poder que
especificaciones alternativas. El test HEGY parte de la base que el crecimiento anual de cualquier
serie de tiempo en frecuencia trimestral se puede descomponer de la siguiente forma:
1L 4 =1L 1L 1iL 1iL

(4.90)

donde L es el operador lineal de rezagos e i = 1 . El trmino del lado izquierdo es la tasa de


crecimiento anual o diferencia en logaritmos en cuatro periodos. Los trminos del lado derecho
corresponden respectivamente a la diferencia anual, la diferencia semestral y, los ltimos dos
trminos, al componente trimestral de la serie.
La especificacin es muy til ya que permite obtener un test de forma general para evaluar en
forma simultnea diversas hiptesis sobre el proceso de comportamiento estacional de la serie. La
forma general del test de la descomposicin anterior es:
1L 4 =11 L 1 2 L 13 iL 14 iL

(4.91)

donde 1, 2, 3, y 4 son parmetros. La distinta conformacin de parmetros da origen a variables


que tienen races unitarias en distintas frecuencias. En particular:

28 Dickey, D. A., Hasza, D. P., and W. A. Fuller (1984). Testing for unit roots in seasonal time series, Journal of the
American Statistical Association, 79: 355-367. Franses Ph.H.B.F., Hans, H. Hoek R. Paap (1997), Bayesian analysis of
seasonal unit roots and seasonal mean shifts, Journal of Econometrics 78(2): 359-380. Geweke, J. and Porter-Hudak, S.
(1983), The estimation and application of long memory time series models, Journal of Time Series Analysis, 4: 221-238.
Hylleberg, S., R. Engle, C. W. J. Granger and B. S. Yoo (1990). Seasonal integration and co-integration, Journal of
Econometrics, 44: 215-238. Johansen, S. and E. Schaumburg (1999). Likelihood analysis of seasonal cointegration,
Journal of Econometrics 88(2): 301-339.
29 Beaulieu, J. J. and J. A. Miron (1995). What have macroeconomists learned about business cycles from the study of
seasonal cycles?, NBER Working Papers # 5258.
30 Canova, F. and B. Hansen (1995). Are seasonal patterns constant over time? A test for seasonal stability, Journal of
Business and Economic Statistics, 13: 237-252.

4.38

Si 1 =1 , la variable tiene una raz unitaria no estacional (la raz unitaria tradicional).

Si 2 =1 , la variable tiene una raz unitaria de frecuencia semestral.

Si 3 =1 y 4 =1 , la variable tiene raz unitaria trimestral.

La implementacin del test requiere definir las siguientes variables auxiliares:


x 1t =1L L 2 L 3 x t 1=x t 1x t 2 x t 3x t 4
x 2t =1LL 2 L 3 x t1=x t 1 x t 2 x t 3x t 4
x 3t =x t1x t3

(4.92)

Las variables se usan para estimar esta ecuacin por mnimos cuadrados ordinarios:
1L 4 x t =1 x 1t 12 x t21 3 x 3t 14 x t22t

(4.93)

Al igual que en el test de Dickey-Fuller, la hiptesis nula del test es que existen races
unitarias en los componentes anuales, semestrales y trimestrales. La hiptesis alternativa es que las
variables son estacionarias. Opcionalmente, se puede incorporar una tendencia, la constante y
dummies estacionales. Estas ltimas capturan la presencia de estacionalidad no estocstica. La
interpretacin de los resultados es la siguiente:
(a)

Si no se puede rechazar H 0 : 1=0 , existe una raz unitaria no estacional en xt.

(b)

Si no se puede rechazar H 0 : 2 =0 , existe una raz unitaria semestral (bianual) en xt

(c)

Si no se puede rechazar H 0 : 3=4 =0 , existe una raz unitaria estacional trimestral en xt.

La interpretacin de la hiptesis (a) es la estndar del test de Dickey-Fuller. Ntese que la


hiptesis (c) requiere un test conjunto. En este caso, basta usar un test F. Bajo la hiptesis nula que
hay races unitarias en la variable, los tests de hiptesis de los parmetros obtenidos no tienen la
distribucin estndar normal, por lo que los resultados del test deben contrastarse con los valores
crticos tabulados por HEGY. stos, a su vez, dependen de si la hiptesis nula incorpora regresores
de intercepto, tendencia determinstica y estacionalidad determinstica.
Adems, debido a que el test se basa en la hiptesis de no estacionariedad en los distintos
componentes, su poder es limitado para distinguir procesos estacionarios con autocorrelacin
cercana, pero distinta, a uno. La inclusin de rezagos de la variable dependiente, sin embargo,
permite controlar la eventual correlacin de residuos y aumenta el poder del test. Adems, la

4.39
inclusin de variables mudas estacionales, tendencia y constante permite enriquecer la hiptesis
alternativa, que en ausencia de estas adiciones es que la serie es un ruido blanco.
Este modelo puede ser extendido para acomodar una hiptesis alternativa ms rica que la
que hemos considerado implcitamente hasta el momento (es decir, que yt es ruido blanco). De
manera equivalente a como se extiende el test de Dickey-Fuller se pueden incluir un intercepto,
tendencia determinstica, y estacionalidad determinstica de la siguiente manera:
1L 4 x t =1 x 1t 12 x t213 x 3t 1 4 x t22 0 t 1 D12 D 23 D3 t

APNDICE A:

CDIGOS GAUSS

/*
Figura 4.1 Construye y grafica un proceso TS y uno DS
*/
new;
cls;
library pgraph;
len=150;
shock=rndn(len,1);
/* Crea data ruido blanco */
vara=zeros(len,1);
/* Define variable */
varb=vara;
drft=0.05;
/* Define drift */
vara[1,1]=0;
/* Define punto de partida */
i=2;
tita="Proceso I(1)";
/* Define titulos */
titb="Proceso I(0)";
do while i<=len;
vara[i,.]=drft+vara[i-1,.]+shock[i,1];
/* Construye el random-walk */
varb[i,1]=vara[1,1]+0.85*varb[i-1,1]+shock[i,1]; /* Construye el TS */
i=i+1;
endo;
mono(vara,varb);
end;
proc(0) = mono(data,rho);
graphset;
_pnumht={0.25};
_pdate="";
_plwidth = 3;
_pltype={6};
_ptitlht={0.35};
begwind;
window(2,1,0);
title(tita);
xy(seqa(1,1,rows(data)),data);
nextwind;
title(titb);
xy(seqa(1,1,rows(rho)),rho);
endwind;
retp;
endp;

/*
/*
/*
/*
/*

tamao de numeros */
omite fecha */
ancho de lineas */
tipo de lineas */
tamao titulo */

(4.94)

4.40
/* Figura 4.2 Computa la distribucin del estimador de mnimos cuadrados del AR(1) cuando los datos fueron
generados por un paseo aleatorio */
new;
library pgraph;
"Dame el largo de la serie (50+)
";
len=con(1,1);
/* pide largo de datos desde la consola */
result=zeros(1000,2);
i=1;
do while i<=1000;
shock=rndn(len,1);
/* crea data white noise */
var1=zeros(len,1);
/* crea variables */
j=2;
do while j<=len;
var1[j,.]=var1[j-1,.]+shock[j,1];
/* crea random walks con drift */
j=j+1;
endo;
{bhat,that,covb,sigma2,stde,see,rss,d,akaike,schwarz,r2,r2a}=myols(var1[2:rows(var1),1],var1[1:rows(var1)1,1]);
result[i,1]=bhat;
result[i,2]=(bhat-1)/sqrt(covb);
i=i+1;
endo;
mono(result);
end;
/* Figura 4.3 Computa la distribucin del estimador de mnimos cuadrados del AR(1) con constante cuando los
datos fueron generados por un paseo aleatorio */
new;
library pgraph;
"Dame el largo de la serie (50+)
";
len=con(1,1);
/* pide largo de datos desde la consola */
result=zeros(1000,2);
i=1;
do while i<=1000;
shock=rndn(len,1);
/* crea data white noise */
var1=zeros(len,1);
/* crea variables */
j=2;
do while j<=len;
var1[j,.]=var1[j-1,.]+shock[j,1];
/* crea random walks con drift */
j=j+1;
endo;
{bhat,that,covb,sigma2,stde,see,rss,d,akaike,schwarz,r2,r2a}=myols(var1[2:rows(var1),1],ones(rows(var1)1,1)~var1[1:rows(var1)-1,1]);
result[i,1]=bhat[2,1];
result[i,2]=(bhat[2,1]-1)/sqrt(covb[2,2]);
i=i+1;
endo;
mono(result);
end;
/* Figura 4.4 Computa la distribucin del estimador de mnimos cuadrados del AR(1) con constante cuando los
datos fueron generados por un paseo aleatorio con drift*/
new;
library pgraph;
"Dame el largo de la serie (50+)
len=con(1,1);
result=zeros(1000,2);
i=1;
do while i<=1000;
shock=rndn(len,1);
var1=zeros(len,1);

";
/* pide largo de datos desde la consola */

/* crea data white noise */


/* crea variables */

4.41
j=2;
do while j<=len;
var1[j,.]=0.05+var1[j-1,.]+shock[j,1];
/* crea random walks con drift */
j=j+1;
endo;
{bhat,that,covb,sigma2,stde,see,rss,d,akaike,schwarz,r2,r2a}=myols(var1[2:rows(var1),1],ones(rows(var1)1,1)~var1[1:rows(var1)-1,1]~seqa(1,1,rows(var1)-1));
result[i,1]=bhat[2,1];
result[i,2]=(bhat[2,1]-1)/sqrt(covb[2,2]);
i=i+1;
endo;
mono(result);
end;
/* Cuadro 4.2 Computa los valores crticos de la distribucin Dickey-Fuller */
new;
cls;
library pgraph;
"Dame el largo de la serie (50+)
";
len=con(1,1);
/* pide largo de datos desde la consola */
"Dame el numero de replicaciones
";
replic=con(1,1);
result=zeros(replic,3);
i=1;
do while i<=replic;
shock=rndn(len,1);
/* crea data white noise */
var1=zeros(len,1);
/* crea variables */
j=2;
do while j<=len;
var1[j,.]=var1[j-1,.]+shock[j,1];
/* crea random walks con drift */
j=j+1;
endo;
deltay=var1[2:rows(var1),1]-var1[1:rows(var1)-1,1];
{bhat,that,covb,sigma2,stde,see,rss,d,akaike,schwarz,r2,r2a} = myols(deltay,var1[1:rows(var1)-1,1]);
result[i,1]=that;
{bhat,that,covb,sigma2,stde,see,rss,d,akaike,schwarz,r2,r2a}=myols(deltay,ones(rows(var1)1,1)~var1[1:rows(var1)-1,1]);
result[i,2]=that[2,1];
{bhat,that,covb,sigma2,stde,see,rss,d,akaike,schwarz,r2,r2a}=myols(deltay,ones(rows(var1)1,1)~var1[1:rows(var1)-1,1]~seqa(1,1,rows(var1)-1));
result[i,3]=that[2,1];
i=i+1;
endo;
result=sortc(result,1);
index1=trunc(0.05*rows(result));
index2=trunc(0.10*rows(result));
"Valores criticos del Test de Dickey-Fuller Modelo 1
95%
90%";
result[index1,1]~result[index2,1];
result=sortc(result,2);
index1=trunc(0.05*rows(result));
index2=trunc(0.10*rows(result));
"Valores criticos del Test de Dickey-Fuller Modelo 2
95%
90%";
result[index1,2]~result[index2,2];
result=sortc(result,3);
index1=trunc(0.05*rows(result));
index2=trunc(0.10*rows(result));
"Valores criticos del Test de Dickey-Fuller Modelo 3
95%
90%";
result[index1,3]~result[index2,3];
end;

4.42
/*

Computa Test de Zivot y Andrews

*/

proc zivot(var,model);
local dvar,lvar,i,var,criter,const,trend,right,sum,brk,linea,du,dt,dtu,x,cval1,
cval2,dvar,right;
dvar=trimr((var-lag1(var)),1,0);
lvar=trimr(lag1(var),1,0);
if lags >0;
i=1;
do while i<=lags;
@ generates lags @
dvar=dvar~shiftr(dvar[.,cols(dvar)]',1,(miss(0,0))')';
i=i+1;
endo;
endif;
dvar=trimr(dvar,lags,0);
var=trimr(var,lags+1,0);
lvar=trimr(lvar,lags,0);

@ trims matrices @

criter=ones(rows(dvar),2);
const=ones(rows(dvar),1);
trend=seqa(1,1,rows(dvar));

@ counters @

if lags==0;
right=const~trend~lvar;
@ generates RHS @
else;
right=const~trend~dvar[.,2:cols(dvar)]~lvar;
endif;
sum=olss(var,right);
"Durbin-Watson of Total Sample = " sum[1,2];
if sum[1,2]<=1.66;
"Need more lags.";
end;
endif;
brk=trm+lags;
linea=ones(rows(trend)-trm-lags,1);

@ are lags OK? @

@ moving break point @

do while brk<=rows(dvar)-1;
du=trimr((zeros(brk,1)|ones(rows(dvar)-brk+1,1)),1,0);
dt=trimr((zeros(brk,1)|seqa(1,1,rows(dvar)-brk+1)),1,0);
dtu=du~dt;

@ generates dummies @

if model==1;x=du~right;cval1=linea*(-3.45);cval2=linea*(-4.58);
elseif model==2;x=dt~right;cval1=linea*(-3.68);cval2=linea*(-4.11);
elseif model==3;x=dtu~right;cval1=linea*(-3.95);cval2=linea*(-4.82);
endif;
criter[brk,.]=olss(var,x);
brk=brk+1;
endo;
retp(criter);
endp;

4.43
/* Computa el estimador no paramtrico V de Cochrane */
proc vvv(yv);
library auto;
local rhohat,v,kv,t,m ;
t = rows(yv);
/* NUMERO DE DATOS USADOS */
m = round(t/2);
/* MAX DE AUTOCORRELATIONS */
yv = yv-li(yv,1) ;
yv = yv[2:rows(yv),1] ;
v = ones(1,3)|zeros(m-1,3) ;
kv = 1 ;
do while kv < m ;
rhohat = ((ONES(kv,1)-(1/(rows(yv)-1))*SEQA(1,1,kv))^(-1))
.*AUTOCOR(yv,1,kv) ;
v[1+kv,1] = 1+2*SUMC((ONES(kv,1)-(1/(kv+1))*SEQA(1,1,kv)).*rhohat) ;
v[1+kv,2] = v[1+kv,1]*(1+(1/SQRT(0.75*(rows(yv)-1)/(kv+1)))) ;
v[1+kv,3] = v[1+kv,1]*(1-(1/SQRT(0.75*(rows(yv)-1)/(kv+1)))) ;
kv = kv+1 ;
endo ;
retp(v) ;
endp ;
proc li(z,i);
local z,j;
j=1;do while j<=i;z=lag1(z);j=j+1;endo;
retp(z);
endp;

4.44

APNDICE B:
1.

EJERCICIOS

En general, hay dos modelos rivales para series macroeconmicas:


a y t= t Lt
b1L y t= Lt

donde t es una tendencia determinstica, (L) es un modelo ARMA(p,q) y es ruido blanco. Obtenga
el error cuadrtico medio de la prediccin de y t para el perodo t+s en estos modelos. Cul es la
diferencia fundamental entre ellos?Qu tan distintos son estos procesos cuando s?
2.
Suponga que el modelo es y t= z t t , donde zt contiene dos variables: una variable
estacionaria (wt) y una variable que crece con una tendencia exactamente lineal (xt). Demuestre que la
distribucin de los estimadores de degenera cuando t. por qu en este modelo T 3 /2 es
superconsistente?
3.
Suponga que y t es un paseo aleatorio pero Ud. estima un AR(1), y t= y t 1t , por
mnimos cuadrados ordinarios. La desviacin lmite del estimador mnimos cuadrados ordinarios de
su verdadero valor es

lim T T T 1=

1
T

y t 1 t

1
y2
2 t 1
T

1/2 2[ W 121 ]
1

[W r ]2dr
2

donde W(1) es un proceso Browniano. Cmo se afecta el test del parmetro?

Contenidos
Captulo 4..................................................................................................................................................1
Modelos de Series de Tiempo ..............................................................................................................1
Univariadas No Estacionarias...............................................................................................................1
4.01 Representaciones de Tendencias en Anlisis Univariado.......................................................1
4.02 Teora Asinttica para Procesos con Tendencias Determinsticas.......................................7
4.03 Teora Asinttica para Procesos con Tendencias Estocsticas............................................10
4.04 Movimientos Brownianos y Procesos de Wiener..................................................................12
4.05 Funcional del Teorema del Lmite Central.............................................................................14
4.06 Tests Empricos Estndares de Races Unitarias...................................................................26
4.07 Tests con hiptesis nula de estacionariedad...........................................................................30
4.08 Equivalencia Observacional, Poder y Tests de Races Unitarias........................................31
4.09 Tests No Paramtricos de Races Unitarias.............................................................................32
4.10 Tests de Races Unitarias Estacionales.....................................................................................34

4.45
Apndice A: Cdigos Gauss..............................................................................................................38
Apndice B: Ejercicios.........................................................................................................................43
Ultima correccin: 28/05/07

Anda mungkin juga menyukai