CAPTULO 4
MODELOS DE SERIES DE TIEMPO
UNIVARIADAS NO ESTACIONARIAS
En los captulos anteriores se ha supuesto que las variables eran estacionarias o,
alternativamente, que el econometrista saba qu tipo de transformacin resultaba pertinente para
volver estacionaria una variable que no lo era. El objetivo de este captulo es introducir al lector en la
econometra de variables no estacionarias. Para ello, lo primero que se hace es discutir las profundas
diferencias que tienen procesos estacionarios y no estacionarios. Posteriormente se desarrollan los
elementos centrales de la teora asinttica para procesos no estacionarios. Finalmente se discuten
varios tests que permiten dilucidar empricamente la naturaleza de las variables y el tratamiento
adecuado que se debe darle.
(4.1)
donde y son dos parmetros y (L) es la representacin media mvil de un modelo ARMA(p,q)
para las innovaciones t. La remocin de tendencia correspondera a obtener una serie filtrada del
tipo y t
t .
Aquellas variables que tienen tendencia estocstica1 () se pueden modelar usando primeras
diferencias, es decir como
1 L y t = * L t
(4.2)
1 Usaremos deriva o tendencia estocstica, equivalente al trmino ingls drift, reservando el trmino tendencia para la
tendencia determinstica. El diccionario de la Real Academia de la Lengua seala que deriva es una variacin lenta y
continua de una propiedad que puede ser medida respecto de un valor, direccin o punto preestablecido.
4.2
Vamos a estudiar las diferencias entre el modelo de la ecuacin (4.1) y el de la ecuacin (4.2),
para concluir que stos son radicalmente diferentes en tres dimensiones: la naturaleza de los errores
de prediccin asociados a cada proceso, la varianza de dichos errores de prediccin y la persistencia
de las innovaciones de cada proceso.
Consideremos primero el error de prediccin de una variable descrita por la ecuacin (4.1) y
re-escribamos el proceso ARMA de manera extensiva:
11 L2 L2 ... p L p t =11 L2 L 2... q Lq t
(4.3)
es decir,
t=
11 L 2 L2...q L q
2
11 L 2 L ... p L
(4.4)
(4.5)
| j | , entonces
j=0
i1
(4.6)
| *j | . As,
j=0
(4.7)
4.3
por su nivel de integracin de forma tal que el proceso anterior es I(2) y el proceso de la ecuacin
(4.2) es I(1), en tanto que el proceso de la ecuacin (4.1) es llamado I(0).
Qu tan distintos son estos procesos? En trminos visuales usualmente resulta
prcticamente imposible diferenciar una variable integrada de una estacionaria, en particular cuando
la muestra es pequea. La Figura 4.1 presenta una realizacin completamente aleatoria de un proceso
estacionario AR(1) y un proceso no estacionario paseo aleatorio (random walk) con una pequea
tendencia estocstica de tamao 0.05.2
Figura 4.1
Simulacin de procesos artificiales estacionarios y no estacionarios
Predicciones3
Para el proceso estacionario en tendencia podemos usar la representacin media mvil del
error para computar:
y t s | t=ts s t s1 t 1...
(4.8)
4.4
Debido a que se cumple sumabilidad absoluta, se obtiene
2
E [ y t s |t ts] 0
si
(4.9)
es decir, en el largo plazo las innovaciones van a desaparecer y lo nico que queda activo en la
prediccin es la parte determinstica.
Para el proceso estacionario en diferencia podemos usar la representacin media mvil del
proceso en primera diferencia y luego restar y t , para obtener:
y t s | t= y t s s s1...1 t
s 1s ... 2 t 1
s 2 s1... 3t 2
...
Prueba:
(4.10)
Es decir, vemos que la prediccin en t+s en el caso de las variables integradas depende de la
posicin inicial de la serie, y t , en tanto que en los modelos de variables estacionarias no. 4 El
intercepto en modelos de variables estacionarias es fijo (), en tanto que en series integradas depende
de la historia de la variable. Para cada instate t en el que se haga la prediccin habr un distinto
punto de partida, y t . En segundo lugar, si no es cero, la serie tiene tasa de crecimiento pero, a
diferencia de los variables estacionarias, sta no es determinstica (constante) sino estocstica: para
deducirlo basta con tomar el valor esperado de la ecuacin (4.2). En tercer lugar, en la prediccin del
proceso I(1) la parte estocstica de la tasa de crecimiento representada por la historia de las
innovaciones t afecta permanentemente el nivel de la variable y t en tanto que en las variables
estacionarias no. En resumen, el intercepto en variables estacionarias en tendencia es fijo, en
cambio en variables estacionarias en diferencia depende de la historia y la innovacin
contempornea.
Errores de Prediccin
De las ecuaciones (4.1) y (4.8) resulta directo demostrar que el error de prediccin de una
variable estacionaria en tendencia es la suma ponderada de las innovaciones futuras:
y t s | t y t s=t s 1 t s12 t ss... s1 t1
(4.11)
Si las innovaciones son i.i.d., el error cuadrtico medio (ECM) de la prediccin es:
4 Esto implica que la ubicacin de la variable integrada es, entonces, dependiente de la historia. En algn sentido a las
series de tiempo no estacionarias se le aplica la clebre frase de Herclito Nadie se baa dos veces en el mismo rio.
4.5
E [ y t s |t y t s ]2 =[ 121 22...2s1 ] 2
(4.12)
lim s E [ y t s| t y t s ] =[ 11 2... ]
2
(4.13)
De las ecuaciones (4.2) y (4.10) resulta directo pero ms largo demostrar que el error de
prediccin de una variable estacionaria en diferencia es:
y t s y t s | t=t s1 1t s111 2 t s2 ...
(4.14)
E [ y t s |t y t s ] =[ 111 11 2 ... ]
2
(4.15)
si observamos una serie integrada por largo tiempo, sta va a crecer en el largo plazo.
La figura siguiente presenta de manera grfica las dos caractersticas diferenciales entre los
procesos estacionarios en tendencia y los procesos estacionarios en diferencias.
5 Any forecast can be made to look good by an appropriate measure, Hendry's Forecasting Theorem.
4.6
Figura 4.2a
Figura 4.2b
14
14
12
12
10
10
5
3
9
7
13
11
17
15
21
19
5
3
9
7
13
11
17
15
21
19
(4.16)
lim s y t s
=0 .
t
Por otro lado, en una variable estacionaria en diferencia los multiplicadores dinmicos se
derivan de la ecuacin (4.10) y son:
y t s y t
=
s s1.. 1=112..s
t
t
(4.17)
Remocin de Tendencias
Como hemos visto, la forma que tome la tendencia de una variable determinstica o
estocstica implica notables diferencias para el proceso generador de los datos. No resulta
sorprendente que la manera de remover las tendencias de las series de tiempo sea un tema central en
el anlisis de los modelos de series de tiempo. Consideremos la aplicacin de lo que hemos
aprendido:
4.7
El problema radica en que resulta imposible saber si una variable aleatoria es I(0) o I(1) por
observacin de una muestra particular. Qu sucede si nos equivocamos en el mtodo de remocin
de la tendencia?
(4.18)
4.8
(4.19)
[ ] [ ] [ ]
T = T =
T
t=1
xt x t '
T =1
xt yt
(4.20)
] [ ] [ ]
T = T
=
T
t=1
x t xt '
T =1
x t t
(4.21)
1
T T =
T
t=1
xt xt '
][
1
T
xt
T =1
(4.22)
T T d
N 0, 2 Q1 .
Suponga ahora que z incluye una variable estacionaria alrededor de una tendencia
determinstica. La manera ms simple de ver el efecto de una variable no estacionaria es suponer que
hay una tendencia lineal z = t, entonces x = [1 t] y por lo tanto:
4.9
][
T
=
T
1 t
t t2
T
t =1
][ ]
t
t t
(4.23)
T T 1
en tanto que
t=
2
t 2=
t =1
T T 12T1
.
6
Por lo tanto:
x t x t ' = 1 t2
t =1
t t
] [
=
T
T T 1/ 2
T T 1/2 T T 1 2T1/6
(4.24)
1
x t x t ' diverge. De esta manera, no se cumple el supuesto que el
T
primer trmino de la ecuacin (4.22) converge en probabilidad a una matriz positiva definida (Q).
entonces cuando T,
Para que el denominador converja podemos pensar en usar alguna transformacin del
estimador (trasformacin estabilizadora) que evite que la matriz de momentos de los regresores
diverja. Por ejemplo, podramos usar T 3 x t x t ' . El problema es que tal transformacin, si bien
0 0
evita la divergencia, produce una matriz que no es invertible porque converge a Q=
.
0
[ ]
T =
T 1/ 2 0
3 /2
0 T
(4.25)
] [ ][ ]
[ ] [ ]
T
T T = x x '
T
t
t
3 /2
t =1
t =1
T =1
=T
xt
xt xt '
(4.26)
T 1
T
T =1
x t t
t =1
x t xt '
[ [
T = 1
T
t =1
] ] [
1
xt xt '
1
T
T 1 1 T 2 t
T 2 t T 3 t 2
(4.27)
4.10
1 1/2
que obviamente converge a Q=
.
1/2 1/3
Por otro lado, al estudiar el segundo trmino de la ecuacin (4.26) descubrimos que el
teorema de lmite central es aplicable, por lo que ste es asintticamente normal:
1
[ ] [
T
1
T
x t t '
=T
t =1
1 / 2
T 3/ 2
][
t
t t
1
T
1
T
T t
(4.28)
] [ ] [
T T d N
3 /2
T
0 , 2 1 1/ 2
0
1 /2 1 /3
]
1
(4.29)
el estimador de la constante converge como siempre que se trate de variables estacionarias a tasa
T , pero el estimador del parmetro de la variable con tendencia (determinstica) es superconsistente
porque converge a tasa T 3 /2 .
En general para referirnos al tipo de convergencia de las variables usamos el concepto de
orden de probabilidad. Suponga que existen dos secuencias de nmeros reales, a y b. La notacin
a n=O b n corresponde a a es al menos del orden de bn, en tanto que a n=ob n corresponde a a es
de un orden menor a bn. Formalmente,
an
K y K0
bn
| an
=0
bn
4.11
usar este tipo de matemtica radica en que la existencia de procesos integrados nos obliga a trabajar
con secuencias infinitas y con funciones de stas.
Tomemos un modelo AR(1) con parmetro , es decir, y t= y t 1 t con y0=0 e
innovaciones t N(0,). El estimador de mnimos cuadrados de en una muestra de tamao T
es:
T
y t y t1
t = t =1T
(4.31)
y
t=1
2
t 1
donde hemos aprovechado el hecho que y0 es conocida e igual a cero. Se puede demostrar que si
1 , entonces
T T N 0,1 2 2
(4.32)
T t 1=
1
y
T t =1 t 1 t
(4.33)
1
y2
2 t 1
T t =1
1 2 2
[ y y t12t ]
2 t
(4.34)
t =1
t =1
y t 1 t= 12 [ y 2T y 20 ] 12 2t
pero y0=0, por lo que:
(4.35)
4.12
1
T
y t1 t =1 /21 /T y 1/21/T 2t
2
T
t=1
(4.36)
t=1
t=1
[ ]
yT
y t1 t =1 /2
T
1/21/ T 2t
2
(4.37)
t =1
El primer trmino del lado derecho de la ecuacin (4.37) es una N(0,1) al cuadrado, es decir
2(1). El segundo trmino es una suma de cuadrados de variables i.i.d. con media cero y varianza ,
1
1 2
2
2
por lo que t p . As, la ecuacin (4.36) converge a [ 11 ] .
T
2
t =1
t=1
T
para que converja tiene
2
4.13
[ y t y s ] N 0, st
[ y t y s ] es independiente de [ y r y q ] si r qst .
t=et e t
7 En 1827 el botnico escocs Robert Brown descubri que los granos de polen suspendidos en agua se movan a
brincos siguiendo un patrn de zigzag. En realidad el primero en observar este fenmeno fue Jan Ingenhousz en
1785 pero pas desapercibido hasta que fu redescubierto por Brown (providencialmente, el olvido nos evit hablar
de procesos Ingenhouszianos). En 1889 G.L. Gouy descubri que los movimientos Brownianos ocurren en
partculas pequeas (no en autos o personas) y son ms rpidos mientras ms pequea es la partcula. La primera
explicacin del fenmeno es la de Desaulx (1877): In my way of thinking, the phenomenon is a result of thermal molecular
motion in the liquid environment (of the particles). Efectivamente, una partcula suspendida est constantemente sujeta a
innovaciones aleatorios de todos lados por las molculas del lquido. Si la partcula es relativamente pequea, las
innovaciones aleatorios harn saltar a la variable instantneamente. El primer modelo matemtico the Brownian motion
fue desarrollado por A. Einstein en 1905 (por lo que recibi el premio Nobel).
8 Norbert Wiener fue un matemtico norteamericano considerado el padre de la ciberntica. A la edad de 11 aos
entr a la universidad a estudiar matemticas, recibiendo su Ph.D en lgica matemtica a la edad de 18 aos.
9 Este anlisis recuerda la clebre paradoja de Zenn de Elea (490 AC- 430 AC) segn la cual el ms rpido de los
hombres, Aquiles, no podr alcanzar nunca al ms lento de los animales, la tortuga, si se da a sta una ventaja inicial
en una carrera. Pues, mientras Aquiles recorre el camino que la tortuga llevaba por la mencionada ventaja inicial, la
tortuga habr recorrido otra porcin, aunque ms pequea. Cuando Aquiles haya llegado a recorrer esta ltima
porcin de camino, la tortuga habr avanzado otra porcin ms pequea, y as la tortuga llevar siempre la ventaja
hasta en espacios infinitamente pequeos, con lo cual, Aquiles no podr alcanzarla nunca. Zenn conclua que al
sumar infinitos nmeros se obtendra infinito, sin importar el tipo de nmeros que se sume. Sin embargo, al reducir
la suma a lmites de secuencias se observa que este argumento es falso en el caso de la paradoja.
4.14
Una manera de visualizar qu es lo que implica este fraccionamiento se muestra en la
Figura 4.2. En el panel izquierdo se ha graficado un paseo aleatorio y se ha cortado la curva en ocho
trozos. Ntese que cada trozo es de igual ancho, pero de distinto alto. En el panel derecho se ha
cortado la curva en 24 trozos. Como resulta evidente, el ajuste en este caso es muy superior. Si
hacemos un fraccionamiento infinitamente angosto, entonces podremos replicar la evolucin de la
curva completamente y habremos pasado de tiempo discreto a contnuo.
Figura 4.2
Paseo aleatorio y funcin peldao
t+1
4.15
Matemticamente, se puede escribir el proceso de Wiener como:
si y t es W(t) entonces y t= t
Las siguientes caractersticas de este proceso son importantes:
Sea z1(t) = W(t). Entonces esta transformacin del proceso original es tambin un
movimiento Browniano, slo que sus incrementos son i.i.d. N(0, ) en vez de N(0,1).
(4.39)
10 Si este tipo de funciones lo deja estupefacto, usted no est solo. El famoso matemtico frances Charles Hermite
seal en 1893 I recoil in fear and loathing from that deplorable evil: continuous functions with no derivatives.
11 Otros procesos de Wiener son el proceso de Ito dx =a x ,t dt b x , t dw donde los parmetros son funcin de la
posicin de la serie y el Wiener geomtrico x / x =a t b W para tasas de crecimiento.
4.16
Supongamos un estimador curioso: calcule la media muestral con la mitad de los datos, bote el resto.
El estimador
T / 2 tambin cumple el TLC. Y, de hecho, es independiente del mismo tipo de
estimador hecho con la otra mitad de los datos.
Podemos generalizar esto para la fraccin r de los datos, con r [0,1] para definir una
funcin tipo pedao (step), es decir, la media calculada con una fraccin r de la muestra de T datos:
1
X T r =
T
Tr
(4.40)
t =1
Ntese que la funcin XT(r) es una funcin en r, que mapea la informacin en el intervalo
[0,T] en la recta [0,1]de la siguiente forma:
[ ]
0
1
T
X T r =
1 2
T
12 ...T
T
1
T
1
2
r
T
T
2
3
r
T
T
0r
(4.41)
r =1
T X T r =
1
Tr
t =
T t =1
T
Tr
Tr t =1 t
(4.42)
aplicando el TLC al parntesis de la ecuacin (4.42) se obtiene que ste converge a N(0,), en tanto
que la fraccin converge a r . 12As:
2
T X T r N 0, r
(4.43)
y, por lo tanto,
X T r
N 0, r
(4.44)
es decir, converge a un proceso Browniano.13 Este resultado es llamado teorema del funcional del
lmite central. Consideremos ahora, la diferencia entre las ecuaciones (4.39) y (4.44). La ecuacin
12 Note que la fraccin es una razn de desviaciones estndares.
13 Este resultado utiliza el Teorema de Donsker (1951).
4.17
(4.39) es para variables aleatorias, en tanto que la ecuacin (4.44) es para funciones de variables
aleatorias. Ntese que la ecuacin (4.39) es un caso particular de la ecuacin (4.44) cuando r =1.
Este teorema del funcional del lmite central se puede usar para obtener convergencia en
probabilidad de funciones, etc. En particular, vamos a usar estos resultados para obtener las
distribuciones de los distintos tests de races unitarias.
Consideremos de nuevo el paseo aleatorio
y t =t t 1t 2 .... . Definimos la funcin estocstica:
0
y 1 /T
X T r = y 2 /T
y 1 /T
0r 1/T
1/T r 2/T
2/T r 3/T
r =1
y t = y t 1t .
Si
y0=0,
entonces
(4.45)
X T r dr = T 12 T 22 ... TT2
(4.46)
Prueba: La funcin peldao que definimos en la ecuacin (4.45) seala que los incrementos en r
son del tipo y i / T y ocurren a distancia 1/T. Entonces,
i /T
X T r dr =
0
i=1 i1 /T
X T r dr ,
T X T r dr =T 2 yt 1
(4.47)
t =1
pero, ya hemos visto en la ecuacin (4.44) que el lado izquierdo converge a W r dr . Por ello,
T
3 T
2
t=1
y t 1 W r dr
0
(4.48)
4.18
T
3 T
2
t=1
y t 1=T
3
2
=T
=T
3
2
[ 1 T 12 T 23 T 3... ]
3 T
2
1 T
2
3 T
2
T t t =T t T t t
t =1
t =1
t=1
[ ]
T
T t
t =1
T
3/ 2
t t
[ ] [
0 , 2 1 1/2
0
1/2 1/3
]
1
(4.50)
t =1
3/2
t =1
T 3/2 y t converge a una variable aleatoria que se describe por la integral de un proceso
t =1
Browniano con varianza . Hay un nmero grande de resultados adicionales que se derivan de este
tipo de anlisis para funciones de y t que usted puede estudiar por su cuenta. Un resumen prctico
de los principales resultados se encuentra en el Cuadro 4.1.
Sobre la base de los resultados obtenidos en el Cuadro 4.1 vamos a derivar la distribucin del
test de races unitarias para distintos tipos de procesos estocsticos. Es decir, vamos a estudiar qu le
sucede al test t hecho sobre los estimadores de los parmetros de una regresin del tipo
y t = t y t 1t cuando el verdadero proceso que genera y t tiene o no tiene una raz
unitaria.
Para derivar los resultados de convergencia del Cuadro 4.1 se utiliza el Teorema del Mapeo
de Continuos (cointinuous mapping theorem)14, que seala que si f(.) es un funcional continuo en el
intervalo [0,1], entonces:
f X T r f W r
14 Para una demostracin ver P. Billingsley (1968): Probability and Measure, John Wiley and Sons.
4.19
En este sentido, el mapeo toma la siguiente forma:
=>
=> r
t
t
=> dW(r)
yt
=> W(r)
Cuadro 4.1
Convergencia en procesos estocsticos
Modelo: y t = y t 1 t
Variable
T
Converge a
1 T
2
W 1
t =1
5/ 2
tyt 1
t=1
t y t 1
rW r dr
0
[ W 1 1 ]
2
t =1
t=1
T 2 y 2t1 2 [W r ]2 dr
T
3 T
2
y t 1
t =1
1
2
[W r ] dr
0
3 T
2
t t
t =1
W 1 W r dr
0
T 3 ty 2t 1 r [W r ] 2 dr
t =1
1
T 1 t 1
t =1
4.20
y t 1 yt
T = t =1T
(4.51)
2
t 1
t =1
(4.52)
4.21
T
1
t T= T
=
T
i=1
y t 1 t
(4.53)
1/ 2
t1
2
t =1
2 1/ 2
T
1/2[ W 12 1 ]
1/ 2
[W r ] dr
2
(4.54)
4.22
[ ][
T = T =
T
T
y t 1
y t 1
y 2t 1
][
yt
yt 1 y t
(4.55)
[ ][
T
=
T 1
T
yt 1
y t 1
y t21
][
t
y t1 t
(4.56)
1/2[ W 1 1 ] W 1 W r dr
2
T T 1
[W r ] dr W r dr
2
(4.57)
es decir, el estimador mnimos cuadrados ordinarios no tiene como distribucin lmite un proceso
Gaussiano. Ms an, tampoco se distribuye como el caso 1. Por ello, no se puede usar los valores
crticos de la tabla anterior, sino una nueva tabla. La distribucin del test es an ms skewed hacia la
izquierda.
Dickey y Fuller (1979) proponen un test tipo t como ya vimos. Este test se distribuye
asintticamente como:
1
T T 1
T
T
1/ 2[ W 12 1 ] W 1 W r dr
0
[
1
2 1 /2
2dr
[W r ]
W r dr
(4.58)
4.23
Figura 4.4
Distribucin del estimador y test t cuando se estima
un AR(1) con constante y el verdadero modelo es paseo aleatorio
Tamao de Muestra = 1000, Nmero de Replicaciones = 1000
Caso 3.
Modelo con constante pero sin tendencia determinstica y el
verdadero proceso es un paseo aleatorio con tendencia estocstica.
Supongamos que el verdadero proceso es y t = y t 1t , y estimamos en y
y t = y t 1 t por mnimos cuadrados ordinarios cuando no es cero. Demostraremos que la
distribucin de los estimadores de y cambia bastante con respecto a los casos anteriores
El proceso puede ser descrito como
y t =t y 0t t 1 t 2 ...
= t y 0t
(4.59)
con = .
Consideremos
t =1
t =1
divide por T; el segundo converge a /2 si se divide por T, en tanto que el tercero converge a
W r dr si se divide por T3/2.
4.24
Entonces, el segundo trmino domina asintticamente a los otros dos. As:
T
T
T
1
1
1
1
y = y 0 2 t 1 2 t 1 0 0
2 t 1
T
2
T t =1
T t =1
T t =1
(4.60)
Estudiemos ahora
y 2t 1
t =1
y 2t 1= y 20 2 t 12 2t 1
2 y 0 t 1 2 y 0 t1 2t 1 t 1
(4.61)
el orden de probabilidad es O(T), O(T), O(T), O(T), O(T3/2) y O(T5/2) respectivamente. Por ello,
T
1
y2
3 t 1
3
T t =1
(4.62)
1
1
y 3/ 2 t 1t
3 /2 t 1 t
T t =1
T t=1
(4.63)
es decir
[ ][
][
T
O T O T 2
=
T 1
O T 2 O T 3
(4.64)
T 1/2 0
para obtener que:
0 T 3 /2
] [ ] [
T 1/ 2 T
N
T 3/ 2 T 1
O T 1 /2
O T 3/2
0 , 2 1 /2
0
/ 2 /3
(4.65)
es decir, obtuvimos lo mismo que en el caso del modelo con tendencia determinstica. Este es un
resultado notable. Por lo tanto se aplican los tests t y F directamente.
4.25
Figura 4.5
Distribucin del estimador y test t cuando se estima
un AR(1) con constante y el verdadero modelo es paseo aleatorio con tendencia aleatoria
Tamao de Muestra = 1000, Nmero de Replicaciones = 1000
(4.66)
[ ][
*T
T* 1 =
T
T
t 1
t
t 1 t
2t 1 t 1 t
t t 1 t 2
][ ]
1
t
t1 t
t t
(4.67)
4.26
T 1/2 0
T = 0 T
0
0
0
0
T 3 /2
(4.68)
[ ] [ ][
T 1 /2 T*
T * 1
1
1 0 0
0 0 W r dr
T
0 0 1
1/ 2
T 3/ 2 *T 0
1/2
W r dr
W r 2dr rW r dr
1/3
rW r dr
][
1
W 1
2
1/2W 1 1
W 1 W r dr
(4.69)
La distribucin de T T 1 no depende de o , en particular no depende de que =0 .
La distribucin de T 1 / es ms ancha que todas las anteriores.
T
Figura 4.5
Distribucin del estimador y test t cuando se estima
un AR(1) con tendencia determinstica
y el verdadero modelo es paseo aleatorio con tendencia aleatoria
Tamao de Muestra = 1000, Nmero de Replicaciones = 1000
4.27
(4.70)
4.28
modelo (b), verificndose que el parmetro el estimador del sea cero. Si no se rechaza dicha
hiptesis nula, se estima la especificacin (a).
Ntese que de acuerdo a lo descrito en las secciones anteriores, la distribucin de los
estimadores de y es estndar (asintticamente normal), en tanto que la del estimador de es no
estndar. Adems, al cambiar de hiptesis alternativa, cambia la forma de la distribucin de este
ltimo debido a la presencia de parmetros incidentales. As, habr que construir tablas para cada
tipo de test y nivel de significancia.
La subrutina del Apndice B permite computar de manera sencilla los valores crticos,
tomando en consideracin los tres tipos de modelos y el tamao de muestra. Los resultados estn en
el Cuadro 4.2. Como puede verse, el tamao del test depende del nmero de datos de la muestra y
de la presencia de parmetros incidentales (nuisance parameters) los que afectan la ubicacin de la
distribucin Dickey-Fuller y el ancho de los intervalos de confianza del test sobre el parmetro de
inters.
Cuadro 4.2
Valores crticos de la distribucin Dickey Fuller
Basado en 100.000 replicaciones
Modelo (a)
Modelo (b)
Modelo ( c)
Tamao Muestra
50
-1,969
-1,621
100
-1,950
-1,616
1000
-1,953
-1,621
50
-2,936
-2,602
100
-2,892
-2,581
1000
-2,897
-2,589
50
-3,510
-3,187
100
-3,460
-3,155
1000
-3,452
-3,149
4.29
k
a y t= yt 1t p y t p
p=1
b y t = y t 1t p y t p
(4.71)
p=1
c y t= t y t1t p y t p
p=1
(4.72)
es decir, la combinacin de un paseo aleatorio (1)(1 ... t), condiciones iniciales 0 y y0 y un proceso
estocstico, t.
Esta decomposicin (desarrollada por Beveridge y Nelson) se usa para obtener el equivalente
de las ecuaciones (4.50), pero en el caso general de correlacin serial.
Para hacer el test,
1. se estima un modelo AR(1) tpico ( y t= y t1t ) y se calculan los estimadores de y
y el error estndar de la regresin, s.
2. se estima la funcin de autocorrelacin de los residuos muestrales, la que se usa para
construir el estimador de Newey-West de la persistencia de la serie =(1) y de la varianza
de los residuos, 0.
3. se transforman los estimadores obtenidos en 1. para obtener tests que tienen la distribucin
del caso (2). Las transformaciones son
17 Phillips, P.C.B. and P. Perron (1988). "Testing for a Unit Root in Time Series Regression," Biometrika, 75: 335-346.
4.30
[0 2]t T 1/2 20/T /s T
(4.73)
T T 1 1/2T 2 2T /s T 20
(4.74)
y t=1 D t1 D t y t1 t p t p
1
t
2
t
(4.75)
p=1
la distribucin de los estimadores, en este caso, depende adems de la ubicacin del quiebre en la
muestra. Por ello, hay tablas Perron para encontrar los valores crticos adecuados.
18 Otras extensiones del tipo DF-GLS son el test ERS (Elliott, Rothenberg and Stock (1996): "Efficient Tests for an
Autoregressive Unit Root," Econometrica 64, 813-836) y el test Ng-Perron (Ng and Perron (2001): "Lag Length
Selection and the Construction of Unit Root Tests with Good Size and Power," Econometrica, 69(6), 1519-1554.)
4.31
4.32
Uno de los tests ms populares es el de Kwiatkosvky et al. (1992)20, usualmente llamado
KPSS. Considere el siguiente modelo:
y t =t t t
(4.76)
2
donde es un paseo aleatorio del tipo t =t 1t con t N 0, . La hiptesis nula de
2
estacionariedad corresponde a H 0 : =0 que equivale a decir que es constante. Este modelo
es una versin del modelo de parmetros cambiantes de Nabeya y Tanaka (1988)21
y t =t x t z t t
t =t 1 t
(4.77)
T
y S t = e t . Este estadgrafo fue derivado suponiendo que las innovaciones son i.i.d. KPSS extiende
t =1
el test para el caso en que las innovaciones no son i.i.d., lo que requier usar un estimador de largo
plazo de la varianza residual 2 =limT T 1 E S T2 . Un estimador consistente de S T2 es:
T
STl =T
=1
t =1
e 2T w l
t =1
2
t
e t e t
(4.78)
23
donde w l es una funcin de ponderacin que, en el caso de KPSS, equivale a w l =1
.
l 1
(4.79)
(4.80)
20 Kwiatkowski, D., P. C. B. Phillips, P. Schmidt y Y. Shin (1992): "Testing the Null Hypothesis of Stationary against
the Alternative of a Unit Root," Journal of Econometrics, 54, 159-178.
21 Nabeya, E. y K. Tanaka (1988): Asymptotic theory of a test for the constancy of regression coefficients against the
random walk hypothesys, Annals of Statistics, 16:218-235.
22 Para testear la hiptesis nula de estacionariedad alrededor de una constante, se omite la tendencia lineal.
23 Esta es una ventana de Bartlett similar a la de Newey-West.
4.33
Consideremos ahora la prediccin y ECM de ambos modelos. Para la ecuacin (4.79)
y t s | t = y t
E [ y t s y t s | t ]2 =s 2
(4.81)
(4.82)
As, para un suficientemente grande, los dos procesos se ven casi iguales en una muestra
finita. A esto se le llama equivalencia observacional.
Igualmente, si el proceso verdadero es estacionario y t=t y estimamos el modelo en
primeras diferencias
1L y t =1t
(4.83)
con 0= y 0=0 . Las proyecciones s periodos adelante y ECM para el verdadero modelo son:
y ts s=0
E [ y t s y t st ]2= 2
(4.84)
(4.85)
de nuevo, si el es cercano a -1, los procesos se parecen bastante en una muestra finita.
La razn de la equivalencia observacional es que en una muestra finita los procesos que
tienen mucha memoria suelen asemejarse a aquellos que tienen races unitarias porque no hay
suficiente informacin para determinar si los innovaciones son transitorios o permanentes.
Qu efecto tiene esto sobre los tests de races unitarias?
4.34
(4.86)
a 1= a j
j=0
c t =a L t a *k =
a j
j=k 1
donde t es ruido blanco, a(1) es la parte del innovaciones que no se disipa en el largo plazo y es el
deriva de la variable y t .
Cualquiera sea la forma en que se separen componentes transitorios y permanentes, la
varianza de este ltimo es la misma y corresponde a:
2
2 z = a j
(4.87)
2z
(4.88)
2
Y t
V k=
1 y y
k 2y y
t
tk
t 1
(4.89)
4.35
m1
m j
Y
m
j=1
T cov Y t , Y t j
Y =
T j
var Y t
V m=12
(4.90)
Los trminos
m j
Tj
y
son correcciones por tamao de muestra.
m
T
Prueba:
1L 1L =1L L ...L
yt :
k1
y t y t k =k '
j=0
l =0
j =k
l t j
k1
j=0
l = jk1
l t j .
k 1
La
varianza
es
Expresamos
=k var y t y tk =k [ l
2
k
la
varianza
k1
como
una
j =0 l =0
ecuacin
j =k l = j k1
en
l ] 2 .
diferencias
2
2
2
2
k k k1 k 1=[ j 2 j j l ] . Sea = , se deduce que
k1
12 j =
2
k
k k 1
2
j =1
Por lo tanto,
j =0
2
k1
l =1
2
l
j =0
2
j
2k
k1
j=1
k j
j .
k
4.36
datos originales, se corre el riesgo de darle demasiada importancia a capturar efectos estacionales
que en s son secundarios en desmedro de una mejor parametrizacin de las caractersticas
principales del modelo. A pesar de lo importante que resulta este debate, la mayora de los
investigadores prefiere usar datos desestacionalizados. La justificacin sera que, si bien estos
movimientos son anticipables, tpicamente stos no estn directamente relacionados al objetivo del
estudio y, por lo tanto, no resulta necesario modelarlos explcitamente.
Entre los mtodos ms comunes para remover la estacionalidad estn el uso de variables
mudas estacionales y el mtodo de promedios mviles, que incluye desde la variacin en xperiodos hasta el ARIMA X-11. Esta ltima es la metodologa ms popular tanto porque su nivel
de desarrollo analtico es superior, como porque viene implementada como una opcin sencilla de
usar en muchos programas economtricos.
Este tipo de filtro asume que la estacionalidad es estocstica pero estacionaria. No obstante,
si los componentes estacionales de una variable son estocsticos, es posible que ellos tengan una raz
unitaria no slo en su comportamiento de largo plazo, sino que tambin en los efectos estacionales.
No reconocer la existencia races unitarias estacionales puede originar problemas de correlaciones
espreas y parametrizaciones inestables.
Ms an, cuando las series macroeconmicas son estacionalmente integradas (es decir, en el
caso que los shocks estacionales tienen componentes permanentes), desestacionalizarlas con los
mtodos clsicos resulta inadecuado. La remocin de estacionalidad, adems, afecta el poder de los
tests de races unitarias y de cointegracin sobre cuyos resultados los econometristas se basan para
determinar la forma funcional de los modelos y juzgar la calidad de las estimaciones.
Si la estacionalidad es determinstica, removerla con la ayuda de variables estacionales no
tiene efecto alguno sobre el desempeo o resultado de los tests de raz unitaria. Sin embargo, en
presencia de efectos estacionales estocsticos, los filtros tradicionales pueden afectar de manera
significativa el poder de los tests de raz unitaria. Ghysels (1990)27 muestra que la remocin de
estacionalidad con el mtodo X-11 o una variacin en X perodos introduce persistencia excesiva
en la serie, lo cual reduce el poder de los tests para rechazar la hiptesis de no estacionariedad.
Olekalns (1994) extiende este resultado a los casos en que usan dummies o filtros band-pass para
remover la estacionalidad.
Al igual que en el caso que existen races unitarias en el componente secular de una variable,
la presencia de races unitarias en el componente estacional es capaz de producir correlacin esprea
en regresiones que utilizan dichas variables. Abeysinghe (1991) realiza un anlisis de Monte Carlo
estudiando el efecto en regresiones de mnimos cuadrados que incluyen variables que por
construccin estn no correlacionadas pero cuyos componentes estacionales son no estacionarios.
Utilizando 500 replicaciones encuentra que se rechaz la hiptesis nula de no-correlacin entre las
variables en ms del 50% de los casos pese a que se control el test con variables mudas
estacionales.
27 Ghysels, E. (1990). Unit-root tests and the statistical pitfalls of seasonal adjustment: the case of U.S. postwar real
gross national product, Journal of Business and Economic Statistics, 8, 145-152
4.37
Este tipo de observaciones son las que han llevado, desde mediados de los aos 1980, al
desarrollo de un gran nmero de tests de races unitarias en el componente estacional. Tests
paramtricos incluyen los de Dickey et al. (1984), Hylleberg, Engle, Granger y Yoo (1990) y
Johansen y Schaumburg (1999). Geweke y Porter-Hudak (1983) proponen tests no-paramtricos,
mientras que Franses et al. (1997) proponen una metodologa Bayesiana para testear por races
unitarias estacionales simultneamente con cambio de medias estacionales, lo que incrementa el
poder de los tests basados en la hiptesis nula de no estacionariedad.28
Para testear la existencia de races unitarias estacionales, usualmente se emplea la extensin
del test de Dickey-Fuller desarrollada para el caso de datos trimestrales por Hylleberg et al. (1990) y
llamado popularmente test HEGY. Existe una versin para datos mensuales desarrollada por
Beaulieu y Miron (1993).29 Si bien existen mtodos alternativos (como el de Canova y Hansen,
199530), el test HEGY es preferido porque procede de general a especfico, tiende a ser ms robusto
en presencia de races unitarias no estacionales en las variables, y tiene mayor poder que
especificaciones alternativas. El test HEGY parte de la base que el crecimiento anual de cualquier
serie de tiempo en frecuencia trimestral se puede descomponer de la siguiente forma:
1L 4 =1L 1L 1iL 1iL
(4.90)
(4.91)
28 Dickey, D. A., Hasza, D. P., and W. A. Fuller (1984). Testing for unit roots in seasonal time series, Journal of the
American Statistical Association, 79: 355-367. Franses Ph.H.B.F., Hans, H. Hoek R. Paap (1997), Bayesian analysis of
seasonal unit roots and seasonal mean shifts, Journal of Econometrics 78(2): 359-380. Geweke, J. and Porter-Hudak, S.
(1983), The estimation and application of long memory time series models, Journal of Time Series Analysis, 4: 221-238.
Hylleberg, S., R. Engle, C. W. J. Granger and B. S. Yoo (1990). Seasonal integration and co-integration, Journal of
Econometrics, 44: 215-238. Johansen, S. and E. Schaumburg (1999). Likelihood analysis of seasonal cointegration,
Journal of Econometrics 88(2): 301-339.
29 Beaulieu, J. J. and J. A. Miron (1995). What have macroeconomists learned about business cycles from the study of
seasonal cycles?, NBER Working Papers # 5258.
30 Canova, F. and B. Hansen (1995). Are seasonal patterns constant over time? A test for seasonal stability, Journal of
Business and Economic Statistics, 13: 237-252.
4.38
Si 1 =1 , la variable tiene una raz unitaria no estacional (la raz unitaria tradicional).
(4.92)
Las variables se usan para estimar esta ecuacin por mnimos cuadrados ordinarios:
1L 4 x t =1 x 1t 12 x t21 3 x 3t 14 x t22t
(4.93)
Al igual que en el test de Dickey-Fuller, la hiptesis nula del test es que existen races
unitarias en los componentes anuales, semestrales y trimestrales. La hiptesis alternativa es que las
variables son estacionarias. Opcionalmente, se puede incorporar una tendencia, la constante y
dummies estacionales. Estas ltimas capturan la presencia de estacionalidad no estocstica. La
interpretacin de los resultados es la siguiente:
(a)
(b)
(c)
Si no se puede rechazar H 0 : 3=4 =0 , existe una raz unitaria estacional trimestral en xt.
4.39
inclusin de variables mudas estacionales, tendencia y constante permite enriquecer la hiptesis
alternativa, que en ausencia de estas adiciones es que la serie es un ruido blanco.
Este modelo puede ser extendido para acomodar una hiptesis alternativa ms rica que la
que hemos considerado implcitamente hasta el momento (es decir, que yt es ruido blanco). De
manera equivalente a como se extiende el test de Dickey-Fuller se pueden incluir un intercepto,
tendencia determinstica, y estacionalidad determinstica de la siguiente manera:
1L 4 x t =1 x 1t 12 x t213 x 3t 1 4 x t22 0 t 1 D12 D 23 D3 t
APNDICE A:
CDIGOS GAUSS
/*
Figura 4.1 Construye y grafica un proceso TS y uno DS
*/
new;
cls;
library pgraph;
len=150;
shock=rndn(len,1);
/* Crea data ruido blanco */
vara=zeros(len,1);
/* Define variable */
varb=vara;
drft=0.05;
/* Define drift */
vara[1,1]=0;
/* Define punto de partida */
i=2;
tita="Proceso I(1)";
/* Define titulos */
titb="Proceso I(0)";
do while i<=len;
vara[i,.]=drft+vara[i-1,.]+shock[i,1];
/* Construye el random-walk */
varb[i,1]=vara[1,1]+0.85*varb[i-1,1]+shock[i,1]; /* Construye el TS */
i=i+1;
endo;
mono(vara,varb);
end;
proc(0) = mono(data,rho);
graphset;
_pnumht={0.25};
_pdate="";
_plwidth = 3;
_pltype={6};
_ptitlht={0.35};
begwind;
window(2,1,0);
title(tita);
xy(seqa(1,1,rows(data)),data);
nextwind;
title(titb);
xy(seqa(1,1,rows(rho)),rho);
endwind;
retp;
endp;
/*
/*
/*
/*
/*
tamao de numeros */
omite fecha */
ancho de lineas */
tipo de lineas */
tamao titulo */
(4.94)
4.40
/* Figura 4.2 Computa la distribucin del estimador de mnimos cuadrados del AR(1) cuando los datos fueron
generados por un paseo aleatorio */
new;
library pgraph;
"Dame el largo de la serie (50+)
";
len=con(1,1);
/* pide largo de datos desde la consola */
result=zeros(1000,2);
i=1;
do while i<=1000;
shock=rndn(len,1);
/* crea data white noise */
var1=zeros(len,1);
/* crea variables */
j=2;
do while j<=len;
var1[j,.]=var1[j-1,.]+shock[j,1];
/* crea random walks con drift */
j=j+1;
endo;
{bhat,that,covb,sigma2,stde,see,rss,d,akaike,schwarz,r2,r2a}=myols(var1[2:rows(var1),1],var1[1:rows(var1)1,1]);
result[i,1]=bhat;
result[i,2]=(bhat-1)/sqrt(covb);
i=i+1;
endo;
mono(result);
end;
/* Figura 4.3 Computa la distribucin del estimador de mnimos cuadrados del AR(1) con constante cuando los
datos fueron generados por un paseo aleatorio */
new;
library pgraph;
"Dame el largo de la serie (50+)
";
len=con(1,1);
/* pide largo de datos desde la consola */
result=zeros(1000,2);
i=1;
do while i<=1000;
shock=rndn(len,1);
/* crea data white noise */
var1=zeros(len,1);
/* crea variables */
j=2;
do while j<=len;
var1[j,.]=var1[j-1,.]+shock[j,1];
/* crea random walks con drift */
j=j+1;
endo;
{bhat,that,covb,sigma2,stde,see,rss,d,akaike,schwarz,r2,r2a}=myols(var1[2:rows(var1),1],ones(rows(var1)1,1)~var1[1:rows(var1)-1,1]);
result[i,1]=bhat[2,1];
result[i,2]=(bhat[2,1]-1)/sqrt(covb[2,2]);
i=i+1;
endo;
mono(result);
end;
/* Figura 4.4 Computa la distribucin del estimador de mnimos cuadrados del AR(1) con constante cuando los
datos fueron generados por un paseo aleatorio con drift*/
new;
library pgraph;
"Dame el largo de la serie (50+)
len=con(1,1);
result=zeros(1000,2);
i=1;
do while i<=1000;
shock=rndn(len,1);
var1=zeros(len,1);
";
/* pide largo de datos desde la consola */
4.41
j=2;
do while j<=len;
var1[j,.]=0.05+var1[j-1,.]+shock[j,1];
/* crea random walks con drift */
j=j+1;
endo;
{bhat,that,covb,sigma2,stde,see,rss,d,akaike,schwarz,r2,r2a}=myols(var1[2:rows(var1),1],ones(rows(var1)1,1)~var1[1:rows(var1)-1,1]~seqa(1,1,rows(var1)-1));
result[i,1]=bhat[2,1];
result[i,2]=(bhat[2,1]-1)/sqrt(covb[2,2]);
i=i+1;
endo;
mono(result);
end;
/* Cuadro 4.2 Computa los valores crticos de la distribucin Dickey-Fuller */
new;
cls;
library pgraph;
"Dame el largo de la serie (50+)
";
len=con(1,1);
/* pide largo de datos desde la consola */
"Dame el numero de replicaciones
";
replic=con(1,1);
result=zeros(replic,3);
i=1;
do while i<=replic;
shock=rndn(len,1);
/* crea data white noise */
var1=zeros(len,1);
/* crea variables */
j=2;
do while j<=len;
var1[j,.]=var1[j-1,.]+shock[j,1];
/* crea random walks con drift */
j=j+1;
endo;
deltay=var1[2:rows(var1),1]-var1[1:rows(var1)-1,1];
{bhat,that,covb,sigma2,stde,see,rss,d,akaike,schwarz,r2,r2a} = myols(deltay,var1[1:rows(var1)-1,1]);
result[i,1]=that;
{bhat,that,covb,sigma2,stde,see,rss,d,akaike,schwarz,r2,r2a}=myols(deltay,ones(rows(var1)1,1)~var1[1:rows(var1)-1,1]);
result[i,2]=that[2,1];
{bhat,that,covb,sigma2,stde,see,rss,d,akaike,schwarz,r2,r2a}=myols(deltay,ones(rows(var1)1,1)~var1[1:rows(var1)-1,1]~seqa(1,1,rows(var1)-1));
result[i,3]=that[2,1];
i=i+1;
endo;
result=sortc(result,1);
index1=trunc(0.05*rows(result));
index2=trunc(0.10*rows(result));
"Valores criticos del Test de Dickey-Fuller Modelo 1
95%
90%";
result[index1,1]~result[index2,1];
result=sortc(result,2);
index1=trunc(0.05*rows(result));
index2=trunc(0.10*rows(result));
"Valores criticos del Test de Dickey-Fuller Modelo 2
95%
90%";
result[index1,2]~result[index2,2];
result=sortc(result,3);
index1=trunc(0.05*rows(result));
index2=trunc(0.10*rows(result));
"Valores criticos del Test de Dickey-Fuller Modelo 3
95%
90%";
result[index1,3]~result[index2,3];
end;
4.42
/*
*/
proc zivot(var,model);
local dvar,lvar,i,var,criter,const,trend,right,sum,brk,linea,du,dt,dtu,x,cval1,
cval2,dvar,right;
dvar=trimr((var-lag1(var)),1,0);
lvar=trimr(lag1(var),1,0);
if lags >0;
i=1;
do while i<=lags;
@ generates lags @
dvar=dvar~shiftr(dvar[.,cols(dvar)]',1,(miss(0,0))')';
i=i+1;
endo;
endif;
dvar=trimr(dvar,lags,0);
var=trimr(var,lags+1,0);
lvar=trimr(lvar,lags,0);
@ trims matrices @
criter=ones(rows(dvar),2);
const=ones(rows(dvar),1);
trend=seqa(1,1,rows(dvar));
@ counters @
if lags==0;
right=const~trend~lvar;
@ generates RHS @
else;
right=const~trend~dvar[.,2:cols(dvar)]~lvar;
endif;
sum=olss(var,right);
"Durbin-Watson of Total Sample = " sum[1,2];
if sum[1,2]<=1.66;
"Need more lags.";
end;
endif;
brk=trm+lags;
linea=ones(rows(trend)-trm-lags,1);
do while brk<=rows(dvar)-1;
du=trimr((zeros(brk,1)|ones(rows(dvar)-brk+1,1)),1,0);
dt=trimr((zeros(brk,1)|seqa(1,1,rows(dvar)-brk+1)),1,0);
dtu=du~dt;
@ generates dummies @
if model==1;x=du~right;cval1=linea*(-3.45);cval2=linea*(-4.58);
elseif model==2;x=dt~right;cval1=linea*(-3.68);cval2=linea*(-4.11);
elseif model==3;x=dtu~right;cval1=linea*(-3.95);cval2=linea*(-4.82);
endif;
criter[brk,.]=olss(var,x);
brk=brk+1;
endo;
retp(criter);
endp;
4.43
/* Computa el estimador no paramtrico V de Cochrane */
proc vvv(yv);
library auto;
local rhohat,v,kv,t,m ;
t = rows(yv);
/* NUMERO DE DATOS USADOS */
m = round(t/2);
/* MAX DE AUTOCORRELATIONS */
yv = yv-li(yv,1) ;
yv = yv[2:rows(yv),1] ;
v = ones(1,3)|zeros(m-1,3) ;
kv = 1 ;
do while kv < m ;
rhohat = ((ONES(kv,1)-(1/(rows(yv)-1))*SEQA(1,1,kv))^(-1))
.*AUTOCOR(yv,1,kv) ;
v[1+kv,1] = 1+2*SUMC((ONES(kv,1)-(1/(kv+1))*SEQA(1,1,kv)).*rhohat) ;
v[1+kv,2] = v[1+kv,1]*(1+(1/SQRT(0.75*(rows(yv)-1)/(kv+1)))) ;
v[1+kv,3] = v[1+kv,1]*(1-(1/SQRT(0.75*(rows(yv)-1)/(kv+1)))) ;
kv = kv+1 ;
endo ;
retp(v) ;
endp ;
proc li(z,i);
local z,j;
j=1;do while j<=i;z=lag1(z);j=j+1;endo;
retp(z);
endp;
4.44
APNDICE B:
1.
EJERCICIOS
donde t es una tendencia determinstica, (L) es un modelo ARMA(p,q) y es ruido blanco. Obtenga
el error cuadrtico medio de la prediccin de y t para el perodo t+s en estos modelos. Cul es la
diferencia fundamental entre ellos?Qu tan distintos son estos procesos cuando s?
2.
Suponga que el modelo es y t= z t t , donde zt contiene dos variables: una variable
estacionaria (wt) y una variable que crece con una tendencia exactamente lineal (xt). Demuestre que la
distribucin de los estimadores de degenera cuando t. por qu en este modelo T 3 /2 es
superconsistente?
3.
Suponga que y t es un paseo aleatorio pero Ud. estima un AR(1), y t= y t 1t , por
mnimos cuadrados ordinarios. La desviacin lmite del estimador mnimos cuadrados ordinarios de
su verdadero valor es
lim T T T 1=
1
T
y t 1 t
1
y2
2 t 1
T
1/2 2[ W 121 ]
1
[W r ]2dr
2
Contenidos
Captulo 4..................................................................................................................................................1
Modelos de Series de Tiempo ..............................................................................................................1
Univariadas No Estacionarias...............................................................................................................1
4.01 Representaciones de Tendencias en Anlisis Univariado.......................................................1
4.02 Teora Asinttica para Procesos con Tendencias Determinsticas.......................................7
4.03 Teora Asinttica para Procesos con Tendencias Estocsticas............................................10
4.04 Movimientos Brownianos y Procesos de Wiener..................................................................12
4.05 Funcional del Teorema del Lmite Central.............................................................................14
4.06 Tests Empricos Estndares de Races Unitarias...................................................................26
4.07 Tests con hiptesis nula de estacionariedad...........................................................................30
4.08 Equivalencia Observacional, Poder y Tests de Races Unitarias........................................31
4.09 Tests No Paramtricos de Races Unitarias.............................................................................32
4.10 Tests de Races Unitarias Estacionales.....................................................................................34
4.45
Apndice A: Cdigos Gauss..............................................................................................................38
Apndice B: Ejercicios.........................................................................................................................43
Ultima correccin: 28/05/07